François-Laviolette scholarships for the development of responsible AI (in French only)

BOURSES François-Laviolette pour le développement d'une IA responsable. Plusieurs bourses de 7500$ et 10000$

Prochain concours en mai 2025

Les informations dans cette page sont à titre indicatif.

Mettre de l’avant des projets liés à l’intelligence artificielle qui utilisent les données de manière responsable!

Le Fonds de bourses François-Laviolette vise à soutenir les projets étudiants qui permettent une meilleure compréhension du fonctionnement des algorithmes d’IA, notamment sur l’interprétabilité. Son objectif est de faire avancer les travaux des étudiantes et étudiants de l’Université Laval aux cycles supérieurs dans ces domaines tout en favorisant la réflexion sur l’apport de l’IA au développement respectueux des individus, nommément par une vigilance envers les biais possibles. Il vise ainsi à:

  • Développer une IA responsable par la promotion d’une éthique de l’IA ancrée dans des valeurs et des principes reconnus qui mettent en évidence l’interprétabilité, la certification et/ou la reddition de compte;
  • Favoriser l’accès aux données personnelles pour des fins de développement de solutions robustes dans des domaines à forts impacts sociétaux;
  • Encourager les projets qui ont une portée significative en matière d’interdisciplinarité en IA ou en sciences des données.

 

Consulter la fiche du concours

Un fonds de bourses en mémoire de François Laviolette

François Laviolette

Reconnu sur la scène nationale et internationale comme l’un des leaders de la recherche sur les théories de l’apprentissage automatique, François Laviolette s’est pleinement investi au développement et à l’essor de l’intelligence artificielle et de la science des données.

 

Un peu avant qu’il soit emporté par la maladie, le Fonds de bourses François-Laviolette a été créé par des chercheuses et chercheurs collaborateurs, aussi devenus des amis, afin de préserver sa mémoire en permettant à la prochaine génération de poursuivre son œuvre. Hugo Larochelle, Alexandre Le Bouthillier, Lyse Langlois, Lynda Robitaille et Jacques Corbeil sont à l’origine de la création de ce fonds.

 

 

 

 

 


Pour le développement de projets éthiques en IA

10 projets éthiques et prometteurs de l’Université Laval ont été récompensés depuis le lancement du programme. Découvrez les lauréates et lauréats des premières éditions de ce concours de bourses.

 

Lauréate et lauréats 2024

Kiswendsida-Liliane-Carol-Ouedraogo

 

Kiswendsida Liliane Carol Ouedraogo
Maîtrise en statistique avec mémoire

 

Titre 
Pondération pour la modélisation conjointe de données longitudinales et de survie

 

Résumé
Mon projet porte sur la modélisation conjointe de données longitudinales et de survie pour prédire le temps avant la survenue d’un événement chez des individus sous-représentés. L’objectif est de fournir des prévisions fiables pour des régions où certains profils sont minoritaires dans les données d’entraînement. Le défi consiste à utiliser des méthodes de pondération pour déterminer les poids appropriés à attribuer aux individus dans le jeu de données d’entraînement et à adapter la modélisation pour intégrer ces poids. Cela assurera des prédictions équitables de haute qualité pour tous les profils d’individus.

 


Mathieu Godbout

 

Mathieu Godbout
Doctorat en informatique

 

Titre 
Vers une IA digne de confiance: réduction de biais et apprentissage de comportements sécuritaires

 

Résumé
Mes travaux portent sur la mise au point de méthodes d’intelligence artificielle (IA) plus sûres et équitables. Dans un premier temps, j’explore l’utilisation d’adversaires pour détecter et prévenir les scénarios d’échec d’un agent autonome, portant une attention particulière à ce que les scénarios d’échec générés soient plausibles. Dans un second temps, je m’intéresse aussi à la réduction des biais dans les modèles préentraînés, en veillant à ce que l’augmentation de l’équitabilité générale du modèle ne se fasse pas au détriment de la performance sur certains groupes protégés.


Benjamin Leblanc

 

Benjamin Leblanc
Doctorat en informatique

 

Titre 
À la jonction du méta-apprentissage et de la compression d’échantillons

 

Résumé
Le projet vise la conciliation du méta-apprentissage et de la compression d’échantillons. Il vise l’élaboration d’un algorithme capable de résoudre plusieurs tâches simultanément. Il met en commun les connaissances que l’on peut tirer de chacune de ces tâches afin de réutiliser ce savoir pour mieux comprendre de nouveaux problèmes (méta-apprentissage). Il s’assure que l’algorithme fournisse de façon intrinsèque des garanties de généralisation rigoureuses (compression d’échantillons). Aussi, la compression d’échantillons amène les modèles à être les plus simples possibles et suggère donc implicitement une technique d’explicabilité visant à identifier les exemples les plus importants d’un jeu de données afin de maîtriser la tâche sous-jacente.

Lauréate et lauréats 2023

Jonay Ramon Alaman

 

Jonay Ramon Alaman
Doctorat sur mesure en ingénierie cognitive

 

Titre 
Utilisation d’un système d’aide à la décision pour soutenir les politiques décisionnelles de pilotes experts

 

Résumé
Avec l’essor des systèmes autonomes et de l’IA, il est essentiel de comprendre comment favoriser une interaction efficace avec l’humain, notamment au sein d’environnements critiques comme l’habitacle de pilotage. Le projet de recherche vise à développer des techniques de collaboration «humain» et «agent» adaptées à la fois au contexte de pilotage et à la cognition humaine.

 

L’approche de ce projet consiste à modéliser la prise de décision afin de maximiser la similitude avec celle des pilotes. Par ailleurs, l’information produite par le système IA sera présentée de manière à s’adapter aux besoins des pilotes pour améliorer l’intégration de ces systèmes dans l’habitacle de pilotage.

 


Arthur Champéroux

 

Arthur Champéroux
Doctorat spécialisé en droit numérique

 

Titre 
Protection de la vie privée informationnelle et jeu vidéo

 

Résumé
La protection de la vie privée des joueuses et des joueurs soulève des enjeux spécifiques de conformité pour les entreprises vidéoludiques et pour la garantie des droits des joueuses et des joueurs, notamment au regard des nouveaux systèmes d’intelligence artificielle bouleversant l’industrie.

 

Pour que l’utilisation de l’IA demeure un progrès pour les entreprises de même que pour les joueuses et les joueurs, il est alors essentiel d’encadrer ces nouvelles pratiques dans le respect de leur vie privée et de manière compatible avec le fonctionnement du jeu vidéo.

 

Le projet de recherche met en lumière l’effectivité de ce droit en suivant un raisonnement comparatiste entre les régimes canadien, états-unien et européen.

 


Marie-Hélène Tessier

 

Marie-Hélène Tessier
Doctorat en psychologie (Ph. D.)

 

Titre 
Psychologie des émotions, à l’interface entre apprentissage machine et statistiques inférentielles

 

Résumé
Afin de favoriser la compréhension des émotions chez l’humain, il est nécessaire d’aller au-delà des cultures d’analyses des domaines des sciences sociales et naturelles en proposant une manière d’intégrer les statistiques inférentielles et l’apprentissage machine. Ce projet vise à identifier et exemplifier les ressemblances et différences entre les statistiques inférentielles et l’apprentissage machine dans l’analyse de données en psychologie des émotions. Une approche descriptive par le biais d’une recension des écrits a été choisie dans le but de rapprocher les deux disciplines. Ce projet met de l’avant les méthodes de statistiques inférentielles comme une avenue d’interprétation des modèles entraînés.

Lauréate et lauréats 2022

 

Sandrine Blais-Deschênes
Maîtrise en informatique – avec mémoire

 

Titre 
L’interprétabilité ne pousse pas dans les arbres! Des arbres de décision parcimonieux basés sur la logique pour une interprétabilité accrue

 

Résumé
L’interprétabilité de l’intelligence artificielle est la propriété qui permet à des spécialistes de comprendre pourquoi une prédiction est faite. Fournir des modèles interprétables est d’une grande importance dans les applications où la santé, la liberté, les préjugés raciaux ou genrés et la sécurité sont en jeu. Ce projet vise à combiner deux algorithmes d’apprentissage automatique supervisé pour optimiser à la fois l’interprétabilité et la performance en tirant parti des outils de la logique mathématique. Ce nouvel algorithme vise à améliorer les prédictions en augmentant légèrement la complexité du modèle tout en préservant un haut niveau d’interprétabilité.


Olivier Côté

 

Olivier Côté
Maîtrise en actuariat – avec mémoire

 

Titre 
Perspective causale sur les discriminations directes et indirectes liées aux caractéristiques sensibles dans les modèles prédictifs en assurance

 

Résumé
Cette thèse examine l’équité dans la tarification d’assurance via une perspective causale, en se focalisant sur les discriminations directes et indirectes liées aux variables sensibles. Elle analyse comment ces variables influencent la tarification et propose une catégorisation des méthodes équitables en cinq familles distinctes. Une nouvelle méthodologie d’évaluation de l’équité est utilisée pour étudier ces méthodes dans une étude de cas sur des données d’assurance automobile réelles. Le raisonnement causal permet de corriger les biais, offrant des outils pratiques pour guider les professionnelles et professionnels de l’assurance vers une meilleure équité algorithmique.

 


Sylvain Auclair

 

Sylvain Auclair
Doctorat en philosophie

 

Titre 
Penser la protection des renseignements personnels au-delà du contrôle individuel à l’ère de l’analyse prédictive

 

Résumé
Même si une personne n’a jamais révélé un élément d’information personnelle et sensible, il est possible de recourir à l’analyse prédictive pour générer cet élément à son insu et à partir des données disponibles. Il est nécessaire de revoir les régimes de protection des renseignements personnels, essentiellement fondés sur le contrôle individuel, afin de mieux protéger la vie privée des personnes, sans toutefois compromettre les multiples bénéfices collectifs que procure l’analyse prédictive. Nous proposons l’ajout d’une forme de contrôle sociétal, soit un encadrement législatif des utilisations des données, suivant une approche contextuelle et fondée sur le risque.


Nicolas Garneau, lauréat 2022

Nicolas Garneau
Doctorat en informatique

 

Titre 
Améliorer l’accès à la justice en verbalisant le plumitif criminel

 

Résumé
Il existe au Canada un droit d’accès à l’information et il s’agit d’un élément fondamental dans le domaine juridique qui a deux objectifs principaux: offrir une fenêtre sur le système judiciaire et permettre aux gens d’acquérir une meilleure compréhension des processus qui en découlent. Parmi ces informations figure le plumitif: un document qui détaille le déroulement de chaque dossier ouvert devant les tribunaux. Cependant, il a été démontré que le plumitif est difficile à comprendre, tant pour les citoyennes et citoyens que pour les praticiennes et praticiens. Dans ce projet, nous proposons donc d’améliorer l’accès à ce registre juridique à l’aide de l’intelligence artificielle.