– Études et recherches humanistes et multidisciplinaires sur l’intelligence artificielle
L’Intelligence Artificielle (IA) est aujourd’hui un champ d’investigation dont l’impact dépasse largement le domaine technologique. Les progrès récents de l’IA reposent sur le développement d’algorithmes d’apprentissage de plus en plus performants, et la disponibilité de données massives, qui permet à ces algorithmes d’acquérir des connaissances toujours plus précises et complexes. Les principales promesses économiques et sociétales de l’IA sont la création de nouveaux services et produits, faciles d’accès, peu coûteux et hautement personnalisés; l’automatisation de certaines tâches ou emplois; et la création de nouveaux savoirs.
Cependant, bien que les perspectives d’innovation liées au développement de l’IA semblent encore illimitées, il est indispensable de considérer les enjeux éthiques et sociaux liés à ces nouveaux développements technologiques et d’en assurer une appropriation sociale harmonieuse, juste et respectueuse. L’IA induit également d’importants changements dans nos diverses pratiques humaines, notamment en art, en éducation et dans nos communications qui ne nous permettent pas de faire l’économie de réflexions critiques.
Dans ce contexte, HumanIA permet d’orienter les travaux en IA vers le bien commun en favorisant les synergies interdisciplinaires. Centré sur les aspects humanistes de l’IA, HumanIA est actif en recherche fondamentale et partenariale, transfert de connaissances (notamment grâce à de la formation continue) et services aux collectivités. L’expertise du groupe dans les divers domaines des «humanités» (éthique, sciences sociales, arts et sciences) appliquée au développement et l’appropriation sociale de l’IA contribue au rayonnement international de l’UQAM. En effet, alors que d’autres institutions se démarquent par leurs recherches visant principalement le développement technologique de l’IA, HumanIA a pour vocation de constituer un pôle de référence mondial d’étude de l’IA dans une perspective distinctement humaniste.
Midi-Conférence HumanIA – Intelligence Artificielle et Pratiques Artistiques
Le 15 février dernier a eu lieu le premier Midi-Conférence HumanIA.
Pour cet événement, nous avons abordé le sujet de l’intelligence artificielle et des pratiques artistiques en compagnie de Sofian Audry (École des médias de l’UQAM) qui nous a présenté son livre Art in the Age of Machine Learning (2021, MIT Press).
Maude Bonenfant (Département de communication sociale et publique de l’UQAM) a commenté sa présentation et animé une période de questions et de discussion.
Lire la suite “Midi-Conférence HumanIA – Intelligence Artificielle et Pratiques Artistiques” →
Applications de traçage
Quatre membres d’HumanIA témoignent à titre d’experts devant la Commission des institutions de l’Assemblée nationale.
Les professeurs Sébastien Gambs et Marie-Jean Meurs (Département d’informatique, UQAM), Yves Gingras (histoire, UQAM) et André Mondoux (École des médias, UQAM) ont été convoqués à titre d’experts par les parlementaires dans le cadre de la Commission des institutions de l’Assemblée nationale. Celle-ci tiendra, du 12 au 14 août prochains, des consultations sur les outils technologiques de notification des contacts, leur pertinence, leur utilité et, le cas échéant, les conditions de leur acceptabilité sociale dans le cadre de la lutte contre la COVID-19.
Marie-Jean Meurs et Yves Gingras participeront à ces consultations le 12 août, tandis que Sébastien Gambs, titulaire de la Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives, et André Mondoux, directeur du Groupe de recherche sur la surveillance et l’information au quotidien (GRISQ), témoigneront le lendemain.
Les quatre professeurs consultés sont membres d’HumanIA, le regroupement multidisciplinaire de chercheurs qui s’intéressent aux enjeux sociaux et éthiques associés aux développements technologiques en intelligence artificielle, lequel est affilié au Centre interuniversitaire de recherche sur la science et la technologie (CIRST).
Dans le but de limiter la propagation du coronavirus et de guider les stratégies de déconfinement, différents pays dans le monde, dont le Canada, recourent déjà ou envisagent de recourir à différents types d’applications. Celles-ci permettent, par exemple, de partager des données de géolocalisation, de suivre les déplacements et les interactions sociales d’individus pour savoir s’ils ont été en contact avec une personne infectée par la COVID-19, ou encore d’alerter les autorités en cas de non-respect d’une consigne d’isolement, en vérifiant, entre autres, les sorties à l’extérieur du domicile.
En juin dernier, le gouvernement du Canada annonçait sa volonté d’aller de l’avant avec une application basée sur une technologie mise à la disposition des gouvernements par Apple et Google. «La consultation porte sur les applications de traçage et de notification en général, mais la mise en service par le gouvernement du Canada d’Alerte COVID donne une place particulière à cette application», précise Marie-Jean Meurs.
«Dans le contexte actuel d’urgence, nous devons trouver un équilibre entre la protection de la santé publique et le respect de la vie privée des individus, un droit démocratique fondamental», soulignait en mai dernier le professeur Sébastien Gambs, qui a participé aux travaux du comité de travail spécial de la Commission de l’éthique en science et en technologie sur les projets d’application de traçage. Ce comité a remis en avril dernier au gouvernement du Québec un document intitulé «Rapport sur les conditions d’acceptabilité éthique d’une application mobile intégrant l’intelligence artificielle pour la surveillance de la COVID-19 au Québec».
Dans l’éventualité d’une recrudescence des cas de COVID-19 l’automne prochain, le gouvernement du Québec devait rapidement statuer sur l’ajout d’une application de notification d’exposition à l’ensemble de ses outils de lutte contre le virus. En raison de la sensibilité des sujets touchant l’utilisation d’outils technologiques pour freiner la propagation de la COVID-19, le gouvernement estimait nécessaire de tenir un débat public.
Dans un premier temps, on a consulté les citoyens afin de mesurer leur intérêt pour une telle application et de cerner leurs préoccupations. La Commission des institutions s’apprête maintenant à entendre des experts sur le sujet afin de recueillir leurs avis sur ces applications, soupeser les risques et avantages de ces dernières, et déterminer si l’encadrement en place est adéquat.
«Sébastien, Yves, André et moi échangeons régulièrement sur le sujet, note Marie-Jean Meurs. Pour autant, chacun va contribuer à la consultation avec un avis issu de son expertise spécifique. Yves et moi intervenons ensemble pour insister sur l’approche multidisciplinaire indispensable à toute réflexion sur un sujet à la fois technologique et de société.»
Source : Actualités UQAM
Directrice scientifique de Calcul Québec

La professeure du Département d’informatique Marie-Jean Meurs a été nommée directrice scientifique de Calcul Québec, un regroupement d’universités québécoises réunies autour du calcul informatique de pointe (CIP). Elle devient ainsi la première femme à occuper ce poste, pour un mandat de deux ans.
Calcul Québec dispose de centres de données hébergeant des supercalculateurs, ainsi que des équipes de spécialistes hautement qualifiés en CIP. Plus de 550 groupes de recherche et près de 1925 utilisateurs bénéficient de ces ressources pour mener des travaux de recherche dans des domaines aussi variés que la chimie, la génomique, l’étude de nouveaux matériaux, les télécommunications, le transport, les finances, la gestion du risque, les sciences de l’atmosphère ou l’intelligence artificielle. «Calcul Québec m’apparaît comme une ressource absolument essentielle pour toute la communauté de la recherche, affirme Marie-Jean Meurs. Il est primordial que l’on continue à développer ce service pour le rendre accessible à tous les champs disciplinaires.»
Le champ d’expertise principal de Marie-Jean Meurs porte sur l’intelligence artificielle et plus spécifiquement sur l’apprentissage automatique pour le traitement du langage naturel et l’analyse de données massives. Elle a fait preuve de leadership dans plusieurs projets de recherche dans différents domaines. Elle fait notamment partie du Centre interuniversitaire de recherche sur la science et la technologie (CIRST), le principal regroupement de recherche interdisciplinaire dont les travaux sont consacrés à l’étude des dimensions historiques, sociales, politiques, philosophiques et économiques de l’activité scientifique et technologique.
Ses thèmes de recherche l’ont conduite à s’intéresser à la gestion de données de recherche et à promouvoir la diffusion des travaux en accès libre. «La démarche de Calcul Québec m’interpelle particulièrement, souligne-t-elle. Les ressources mises à la disposition des équipes de recherche permettent de travailler dans des conditions qui garantissent l’indépendance et qui favorisent le partage de résultats.»
Source : Actualités UQAM
La science désenchante-t-elle le monde?
Cinq chercheurs ont débattu de cette question lors d’une conférence organisée par le Cœur des sciences.
Par Claude Gauvreau

Le 14 février dernier, les médias ont souligné le 30e anniversaire de la célèbre photo de la Terre prise à une distance de 6 milliards de kilomètres par la mission spatiale Voyager 1 de la NASA. Notre planète y apparaît comme un petit point bleu pâle, traversé par un rayon de lumière, seul au milieu du cosmos. «Voilà une image qui donne le vertige, a souligné l’astrophysicien Robert Lamontagne lors de la dernière conférence du Cœur des sciences. En présentant la place minuscule que nous occupons dans l’immensité de l’univers, elle invite à la modestie, mais elle incarne aussi la conscience que nous avons de cette place en tant qu’espèce.»
Quelque 200 personnes se sont rassemblées à l’UQAM, le 20 février dernier, pour assister à la conférence «La science désenchante-t-elle le monde?». Au cours de la soirée, les conférenciers ont soulevé plusieurs questions pour alimenter la discussion autour de ce vaste sujet. Mais ils avaient tendance à se rejoindre sur deux points. D’un côté, la science a effectivement un effet désenchanteur en dissipant les mystères qui entourent le monde. De l’autre, les découvertes de la science, que ce soit dans le domaine de l’astrophysique ou de la recherche sur le cerveau, peuvent être une source de véritable émerveillement.
Animée par Sophie Malavoy, directrice du Cœur des sciences, la conférence réunissait le professeur du Département d’histoire Yves Gingras, directeur de l’Observatoire des sciences et des technologies et membre du Centre interuniversitaire de recherche sur la science et la technologie, la dramaturge, metteure en scène et professeure à l’École supérieure de théâtre Angela Konrad, le professeur du Département de philosophie Christophe Malaterre, titulaire de la Chaire de recherche du Canada en philosophie des sciences de la vie, le chef du Département de médecine d’urgence de l’Institut de cardiologie de Montréal Alain Vadeboncoeur, ainsi que l’astrophysicien et coordonnateur du Centre de recherche en astrophysique du Québec Robert Lamontagne.
Ni mystère ni magie
Yves Gingras a ouvert le bal en citant l’un des pères de la sociologie, Max Weber, selon qui il n’existe pas, du point de vue de la science, de puissance mystérieuse et imprévisible intervenant dans la nature. «Les sciences contemporaines – sciences de la nature ou de la société – essaient de rendre compte des phénomènes observables par des concepts et des théories qui n’invoquent aucune cause surnaturelle, a expliqué Yves Gingras. C’est ce qu’on appelle le naturalisme scientifique, un postulat qui fonde la méthode scientifique. La science postule que le monde est compréhensible. Elle désenchante en rompant tous les charmes, en dissipant tous les mystères. Mais cela n’empêche pas que l’on puisse s’émerveiller devant les beautés de la nature ou devant les découvertes de la science.»
Pour nos ancêtres, qui percevaient le ciel comme la résidence des dieux et des héros, le monde était magique, a rappelé Robert Lamontagne. «On interprétait les phénomènes de la nature par l’humeur des dieux, on tentait de déterminer l’âge de la Terre en interprétant les textes bibliques, tandis que la pensée scientifique a cherché, progressivement, des explications rationnelles au moyen d’outils de calcul et de mesure, repoussant les dieux à la périphérie de la science.» Est-ce à dire qu’il n’y a plus de place pour l’émerveillement? Non, a répondu l’astrophysicien. «Nous avons découvert que nous sommes des poussières d’étoiles, au sens littéral du terme. Nous sommes faits de centaines de milliards de particules, lesquelles ont été créées dans les secondes qui ont suivi le Big Bang. Cela n’a rien à voir avec la magie, mais c’est fascinant.»
«C’est peut-être parce que nous savons que nous sommes des poussières d’étoiles, que nous venons de très loin, que nous avons tant de mal avec l’idée de la mort», a lancé la dramaturge Angela Konrad. S’intéressant aux rapports entre théâtre et science, elle a écrit et mis en scène, en 2018, la pièce Les robots font-ils l’amour?, qui aborde l’intelligence artificielle et le transhumanisme. «Proche de la philosophie, le théâtre agit comme une mise en abyme des savoirs qui irriguent la culture, a observé la professeure. Il s’intéresse aux enjeux qui concernent l’humain et sa place dans le monde.» En écrivant sa pièce, Angela Konrad a voulu témoigner des interrogations et des craintes que suscitent, sur le plan éthique, les manipulations génétiques et l’évolution accélérée des biotechnologies et de l’informatique.
Sentiment de perte
Participer à des groupes de recherche, construire des protocoles de recherche, ce n’est pas toujours enchanteur, c’est même long et laborieux, preuve que la science est un processus parfois ascétique, a noté Alain Vadeboncoeur. «Si on définit le désenchantement par le sentiment de perte d’illusions, lesquelles sont associées à des croyances erronées mais séduisantes pour l’esprit, alors oui, la science désenchante le monde et c’est tant mieux! Cela dit, les résultats de la science, eux, que ce soit en génomique ou en neurobiologie, ont de quoi nous enchanter.»
Selon Christophe Malaterre, nous associons le désenchantement à une forme de regret, à une perte de repères. «Quand la science cherche à expliquer la structure de la matière ou le fonctionnement du cerveau, cela a quelque chose de déstabilisant, surtout qu’elle touche alors des questions complexes associées à la vie, au temps et à la conscience. C’est à nous de trouver un sens à ce que la science nous dit de la nature.» L’hyperspécialisation scientifique produit aussi un effet désenchanteur, contribuant même à assécher la science, a indiqué le philosophe. «On fait face parfois à des recherches tellement pointues qu’on a du mal à les inscrire dans une perspective plus large.».
Le doute systématique
Alain Vadeboncoeur a poursuivi la discussion en rappelant l’existence en science d’un courant de pensée qui repose sur le doute systématique. «La science incite à remettre en question nos croyances personnelles et des choses que nous avons apprises depuis l’enfance», a relevé le médecin. Abondant en ce sens, Christophe Malaterre a fait remarquer que la science part de l’observation de phénomènes particuliers pour induire des règles générales. «Nous ne sommes jamais certains que cela tiendra la route pour toujours, que quelqu’un ne trouvera pas un jour un contre-exemple. Bref, il n’y a pas de certitudes en science.» Yves Gingras n’était pas entièrement d’accord. «Il y a un danger à ne pas reconnaître que des consensus, voire des certitudes, existent en science, a-t-il soutenu. Par exemple, ce n’est pas dogmatique de dire que la Terre est ronde!»
L’historien et sociologue des sciences a tenu à mettre en garde contre le retour, depuis les années 1990, de la théologie naturelle, qui consiste à voir la présence de Dieu ou du surnaturel dans la beauté et la complexité de la nature. Il a aussi critiqué une forme de néoromantisme qui oppose la spiritualité et les savoirs traditionnels et ancestraux à la science dite occidentale, ou encore la puissance de guérison «naturelle» du corps humain aux divers produits de la médecine moderne, comme les vaccins. «Est-ce que la saignée reviendra à la mode ? Est-ce que les vaccins deviendront inutiles ? Non, la saignée, c’est fini, et les vaccins ont démontré leur utilité depuis trois siècles», a conclu Yves Gingras, provoquant des applaudissements dans la salle.
Intelligence artificielle et droits humains
Dans le cadre de sa maîtrise en droit, Lucia Flores Echaiz s’est rendue à Paris l’hiver dernier pour effectuer un stage au siège de l’UNESCO. Son mandat : collaborer à la recherche et à la rédaction d’un rapport sur l’intelligence artificielle (IA). L’étudiante s’est chargée, plus particulièrement, du chapitre sur l’IA et les droits humains et de celui sur l’IA et le genre. Des sujets sur lesquels elle avait déjà une longueur d’avance puisque son mémoire, dirigé par le doyen de la Faculté de science politique et de droit, Hugo Cyr, porte sur la discrimination liée à l’intelligence artificielle. Intitulé Piloter l’IA et les TIC avancées pour les sociétés du savoir, le rapport est paru en novembre dernier.
Pour Lucia Flores Echaiz, l’expérience au siège de l’UNESCO a été enrichissante à plus d’un point de vue. «C’était intéressant de voir comment se déroule une recherche dans une organisation internationale, remarque-t-elle. Nous avions une très bonne collaboration entre les cinq auteurs du rapport, mais il fallait composer avec la bureaucratie onusienne et avec la sensibilité de certains États sur des enjeux comme le genre et les communautés LGBTQ+.»
En plus de nourrir sa recherche de maîtrise, le stage s’est avéré une excellente initiation au jeu diplomatique. «Malgré les contraintes, nous disposions d’un espace de liberté pour pousser des choses qui nous semblaient importantes, confie l’étudiante. Par exemple, le chapitre sur le genre, c’était mon idée et j’étais contente d’avoir réussi à la faire accepter.»
Le chapitre sur l’IA et les droits humains porte plus spécifiquement sur les questions qui intéressent l’UNESCO, indique Lucia Flores Echaiz : liberté d’expression, accès à l’information, confidentialité des données et développement des médias, notamment. «Les effets de l’IA sont multiples, observe-t-elle. Ainsi, sur les réseaux sociaux, le microciblage rendu possible par les algorithmes fait en sorte que tout le monde ne reçoit pas la même information. L’exposition des utilisateurs à un pluralisme d’idées s’en trouve affaiblie. Par ailleurs, les systèmes automatisés de modération en ligne utilisés pour bloquer des contenus incitant à la haine et à la violence peuvent aussi engendrer une forme de censure, comme on l’a vu avec des œuvres d’art supprimées de Facebook parce qu’elles contenaient de la nudité.»
Discriminations multiples
Différentes formes de discrimination peuvent s’exercer à travers les algorithmes, mentionne l’étudiante. Ainsi, le rapport fait état de publicités ciblées qui avaient tendance à proposer des emplois plus prestigieux et mieux payés aux hommes plutôt qu’aux femmes. Dans un autre cas, même si les créateurs de l’algorithme n’y étaient pour rien, on s’est aperçu qu’un logiciel de recrutement accordait moins de valeur aux C.V. provenant de femmes, tout simplement parce qu’il avait été rodé sur la base de C.V. masculins.
«Il peut y avoir des biais introduits par les programmeurs eux-mêmes, mais ce n’est pas si fréquent, dit Lucia Flores Echaiz. Le plus souvent, les biais sont engendrés par les logiciels d’apprentissage automatique (machine learning). Ces logiciels requièrent beaucoup de données pour fonctionner. Or, les données qu’on leur fournit reflètent les nombreux biais discriminatoires que l’on retrouve historiquement dans nos sociétés.»
Les outils utilisant l’IA peuvent être inégalitaires de plusieurs façons. Ainsi, les systèmes de reconnaissance faciale enregistrent leur plus haut taux de succès avec les hommes blancs. Ils fonctionnent beaucoup moins bien avec les visages de femmes noires. Ils peuvent, par ailleurs, s’avérer problématiques pour les personnes transgenres. Pour éviter ce type de discrimination, «il faudrait s’assurer que les systèmes d’IA respectent les critères d’égalité de genre et de diversité dès leurs premières phases de développement», note l’étudiante
Tous les cas de discrimination engendrés par l’IA ne sont pas d’égale gravité. «Les recommandations de films ou de séries biaisées selon le genre (ou d’autres caractéristiques personnelles) d’un outil de divertissement comme Netflix n’ont pas les mêmes conséquences que les résultats d’un logiciel de prédiction de la récidive utilisé pour accorder ou non une libération conditionnelle», observe Lucia Flores Echaiz. Aux États-Unis, ce genre d’algorithme utilisé dans le système carcéral défavorise les personnes noires, auxquelles il accole un plus haut potentiel de récidives.
Survalorisation de l’objectivité de l’IA
«On a souvent l’impression que les systèmes d’IA sont plus objectifs que l’humain, remarque l’étudiante. Le rapport met en garde contre la survalorisation de la neutralité et de l’objectivité de ces systèmes, qui peuvent, au contraire, servir à reproduire et à renforcer des inégalités.»
Lucia Flores Echaiz souligne aussi le caractère insidieux des discriminations engendrées par l’IA. «Dans le cas de la publicité, ce n’est pas un logiciel ou un site web en particulier qui est en cause, mais une pratique généralisée consistant à nous exposer à des messages ciblés en fonction de caractéristiques personnelles. Or, on va rarement se plaindre contre des publicités qui nous ciblent!»
Concernant la reproduction des stéréotypes sexuels, le rapport contient également une section sur les assistantes vocales telles que Siri (Apple), Alexa (Amazon), Google Assistant (Google) et Cortana (Microsoft).« Dotées de voix féminines et de personnalités dociles, ces assistantes contribuent à véhiculer des préjugés sexistes», affirme l’étudiante. À titre d’exemple, elle cite une étude qui a porté sur les réponses des assistantes vocales à différents commentaires à connotation sexuelle. À un commentaire carrément insultant (You’re a slut), Siri répondait, jusqu’à ce que ses programmeurs corrigent le tir: I’d blush if I could («Je rougirais si je le pouvais»)!
Dans le même esprit, Lucia Flores Echaiz s’est aussi intéressée aux robots sexuels. Le marché de ces robots (des poupées sexuelles qui parlent à la manière des assistantes vocales) est en pleine expansion, soulevant de nombreuses questions quant à la reproduction des stéréotypes sexuels. Une campagne (Campaign against sex robots) a même été mise sur pied par la professeure d’éthique Kathleen Richardson, de l’Université De Montfort, en Angleterre, pour les interdire, signale l’étudiante. «Nous ne prenons pas cette position, dit-elle. Le rapport propose plutôt une réflexion sur le sujet. Nous croyons qu’il serait possible de développer des robots qui ne reproduiraient pas ces stéréotypes, même si, pour l’instant, ce n’est pas le cas.»
Lucia Flores Echaiz précise que le rapport a été rédigé selon le cadre ROAM (DOAM en français) de l’UNESCO pour l’universalité de l’internet, adopté par les États membres en 2015. Ce cadre prévoit que les questions relatives au développement de l’IA et des TIC avancées sont examinées sous l’angle des droits humains, de la transparence et de l’accès, et que les actions proposées tiennent compte d’une approche multipartite incluant les États membres, le secteur privé, le milieu académique, la société civile et l’UNESCO.
L’étudiante fera une présentation de son expérience à l’UNESCO et du rapport à l’occasion d’une conférence-midi de l’Institut d’études internationales de Montréal (IEIM) qui se tiendra le 4 février prochain, à 12 h 30, au local A-1715.
Rencontres HumanIA en Avignon 2019
Avignon Université, le Laboratoire Biens, Normes, Contrats (LBNC) et le Laboratoire Informatique d’Avignon (LIA) accueilleront les
Rencontres HumanIA en Avignon 2019
26, 27 et 28 novembre 2019
Les Rencontres permettront de partager réflexions et travaux liés à l’intelligence artificielle, dans une perspective humaniste et multidisciplinaire.
Conférences et ateliers s’intéresseront aux questionnements sociétaux associés au développement des applications de l’intelligence artificielle.
Les membres d’HumanIA sont invité.e.s à partager leurs travaux sous la forme de posters ou de courtes présentations (diaporama de 2 à 4 pages) à envoyer à humania (at) uqam (point) ca .
La forte implication dans les Rencontres de plusieurs facultés d’Avignon Université permet d’envisager de belles collaborations à venir!
Consulter le programme court et le programme complet.
S’inscrire aux Rencontres.
Conférence en éthique de l’IA

Mercredi 27 novembre 2019, 4-6 PM, UQAM
Avi Goldfarb
Ellison Professor of Marketing, Rotman School of Management
The Simple Economics of Artificial Intelligence
Animation: Peter Dietsch (Département de philosophie, Université de Montréal)
Avi Goldfarb is the Rotman Chair in Artificial Intelligence and Healthcare, and Professor of Marketing, at the Rotman School of Management, University of Toronto. Avi is also Chief Data Scientist at the Creative Destruction Lab, Senior Editor at Marketing Science, and a Research Associate at the National Bureau of Economic Research. Avi’s research focuses on the opportunities and challenges of the digital economy. Along with Ajay Agrawal and Joshua Gans, Avi is the author of Prediction Machines: The Simple Economics of Artificial Intelligence (www.predictionmachines.ai) and editor of the NBER book The Economics of Artificial Intelligence: An Agenda.
Information et inscription ici ou écrire à Aude-Marie Marcoux
Ateliers SociologIA – Intelligence artificielle et impacts sociaux.

Le 18 octobre 2019 de 14:00 à 17:00
UQAM, Pavillon DeSève, Salle des Humanités, DS-1950
Pour cette deuxième édition des Ateliers SociologIA, le CIRST est heureux d’accueillir les conférencières Marie-Jean Meurs et Marie-Ève Maillé. Une table ronde réunissant Éric Lacourse, professeur au département de sociologie de l’Université de Montréal, et Dominic Martin, professeur au département d’organisation et ressources humaines à l’ESG-UQAM, suivra les conférences.
L’événement est gratuit et ouvert à tou.te.s.
14h | Conférence de Marie-Jean Meurs
Professeure au département d’informatique, UQAM et coordonnatrice d’HumanIA
Titre: Intelligence artificielle, interdisciplinarité et appropriation sociale
Résumé: Les récents développements de l’intelligence artificielle (IA) ont remis la discipline sur le devant de la scène médiatique. Comme pour toutes les technologies prometteuses et potentiellement lucratives, les attentes, craintes et promesses sont nombreuses et parfois éloignées de la réalité tant scientifique que sociale.
Nous explorerons les concepts de base de l’IA – de l’apprentissage automatique en particulier- pour mieux comprendre en quoi l’appropriation sociale harmonieuse des technologies basées sur l’IA impose une démarche interdisciplinaire. Des exemples de projets en cours illustreront cette approche et en présenteront les défis, liés notamment à l’évaluation des performances et de l’impact potentiel des systèmes développés.
Proposition de texte : Gingras, Y., Meurs, M-J. (2018, 20 octobre). Promesses économiques ou économie de la promesse ?. Le Devoir.
15h | Conférence de Marie-Ève Maillé
Présidente Notre Boîte et professeure associée au Cinbiose, UQAM
Titre: Réflexions autour de l’évaluation des impacts sociaux
Résumé: Les grands projets de développement, qu’ils soient industriels ou liés à l’énergie ou au transport génèrent des impacts sociaux, c’est-à-dire des retombées positives ou négatives sur les différents milieux humains qu’ils concernent. Si on a établi des règles pour évaluer les impacts environnementaux, l’évaluation des impacts sociaux (ÉIS) laisse toujours place à une plus grande improvisation – quand elle a lieu. En effet, l’ÉIS est le parent pauvre de nos mécanismes d’évaluation des grands projets. Est-ce que le secteur de l’intelligence artificielle (IA) fait exception à la règle ? Quels liens peut-on faire entre l’ÉIS du secteur de l’industrie extractiviste et celle, naissante, de l’IA?
Proposition de texte: Esteves, A. M., Franks, D.& Vanclay, F. (2012). Social Impact Assessment: The State of the Art. Impact Assessment and Project Appraisal, vol. 30, p. 35-44.
Contexte des Ateliers SociologIA
Le CIRST, en collaboration avec la Faculté des sciences humaines de l’UQAM, est heureux de lancer les Ateliers SociologIA qui visent à réfléchir aux dimensions sociologiques de l’intelligence artificielle (IA), par une série de conférences regroupant des interlocuteurs et des interlocutrices provenant de divers horizons disciplinaires.
Alors que les éthiciens se sont emparés de la réflexion sur l’IA en l’envisageant sous l’angle de la responsabilité et de l’autonomie des systèmes « intelligents », un regard sociologique reste à poser sur cette technologie et le milieu qui en fait la promotion pour mettre en perspective ce qui relève de « l’économie de la promesse » et ce qui tient des dynamiques concrètes et des impacts réels de l’IA et de ses acteurs dans la société.
Bien que la locution « intelligence artificielle » (IA) fut consacrée lors d’un séminaire de recherche aux États-Unis en 1956, les avancées récentes permises par l’apprentissage profond – la reconnaissance de textes, d’images et de paroles, la prise de décision, etc. –, couplées à l’augmentation de l’accessibilité des mégadonnées et de la puissance des supercalculateurs, ont ramené l’IA dans l’actualité. Les nouveaux « algorithmes d’apprentissage » font miroiter des applications variées dans des domaines aussi divers que le jeu, l’art, le journalisme, l’éducation, la médecine, la justice, la politique, l’économie, etc. De plus, les modifications anticipées sur le plan de l’organisation du travail, voire de la société entière poussent même certains à prédire une Révolution industrielle « 4.0 ».
Puisque l’intelligence artificielle est devenue une réalité sociale, la sociologie doit s’en emparer et l’interroger. C’est l’objectif premier de cette série d’ateliers. Chaque semestre, deux ou trois présentations seront faites par des chercheuses et des chercheurs en sciences sociales et humaines, qui répondront, selon la perspective qui est la leur, aux questions suivantes : comment l’IA est-elle construite comme objet de recherche dans les différents domaines de spécialisation de la discipline et, plus généralement, dans les sciences sociales ? Quels thèmes retiennent l’attention des chercheurs ? Quels terrains empiriques investissent-ils ? Quels concepts et quelles méthodes sont utilisés pour aborder l’IA ? Quelle part est accordée à la rigueur scientifique, à l’expertise politique et à la critique sociale dans les réflexions sur cet objet ? Quelles sont les perspectives d’avenir de la recherche en sociologie de l’IA ?
L’UQAM et HumanIA dans “Innovate Montréal”
Dans le chapitre consacré aux penseurs de l’innovation, Catherine Mounier présente l’innovation sociale comme étant inscrite au cœur même de la mission de l’UQAM depuis sa fondation en 1969. «Orientée vers l’entrepreneuriat et l’innovation à impact social, [l’UQAM] croit en la capacité concertée des acteurs sociaux d’induire des changements afin de pouvoir répondre à des enjeux ponctuels», écrit-elle en introduction de son texte.
La vice-rectrice aborde l’importance que l’UQAM accorde à ses partenariats et à la coconstruction des savoirs. Elle souligne également la position de l’Université «au centre de la ville de l’avenir» et son partenariat avec le Quartier de l’innovation «pour penser et créer un quartier urbain qui tire parti des nouvelles technologies et des principes de l’urbanisme durable, tout en misant sur les innovations et l’entrepreneuriat sociaux afin d’améliorer la qualité de vie des résidents».
Catherine Mounier présente aussi HumanIA, un réseau de chercheurs de différents horizons qui se penchent sur les enjeux sociaux de l’intelligence artificielle. HumanIA est d’ailleurs une des quatre innovations abordées dans la section «Université du Québec à Montréal. 50 ans d’innovation à impact social». Cette section traite aussi des recherches menées par l’UQAM et des avancées permises par ses chercheurs dans les domaines de l’agriculture urbaine, du transport intelligent et de la forêt urbaine.
Comme les autres ouvrages de la série, Innovate Montreal est destiné non seulement à la communauté de chercheurs et d’innovateurs qu’il met en vedette, mais aussi à l’ensemble des chefs d’entreprises et des décideurs avec lesquels il souhaite les mettre en relation. Le livre et sa section sur l’UQAM peuvent également être consultés en ligne.
Source : Actualités UQÀM