Aller au contenu principal

Découvrir la recherche liée aux données et à l'IA

Dans la dernière décennie, le développement des processeurs graphiques, qui a fait exploser la puissance de calcul des ordinateurs, et la croissance exponentielle des données ont ouvert la voie à l'intelligence artificielle. Nos chercheurs en actuariat, mathématiques, informatique, génie logiciel et électronique travaillent à donner du sens à ces données pour en tirer des interprétations justes qui éclaireront nos prises de décision et nous aideront à résoudre des problèmes complexes. Certains mettent au point de nouveaux outils pour analyser des données, d'autres peaufinent l'évaluation des risques financiers ou encore entraînent des logiciels à apprendre par eux-mêmes à exécuter des tâches complexes (apprentissage machine) qu'un humain seul ne pourrait réaliser. 

Les visages de la recherche en données et IA

Voici le résumé des principaux sujets de recherche abordés par nos chercheurs en actuariat, en informatique, génie logiciel, génie électrique, mathématiques et statistique dans l'axe données et IA ainsi qu'un bref portrait des travaux menés par l'un d'entre eux dans chacun de ces sujets.

Apprentissage automatique

L'apprentissage automatique (ou machine) est un champ d'études de l'IA qui se penche sur la conception, l'analyse, le développement et l'implémentation de méthodes qui permettent à un ordinateur d'acquérir des connaissances et des aptitudes nouvelles en traitant des données dans le but de remplir des tâches complexes. Cette capacité qu'a la machine de tirer des déductions à partir d'une masse d'information au moyen d'algorithmes est utilisée dans plusieurs domaines : reconnaissance vocale, faciale ou des objets, traduction automatisée, etc.

Richard Khoury, professeur au Département d'informatique et de génie logiciel

Richard Khoury, professeur titulaire, Département d'informatique et de génie logiciel

Chercheur affilié au Centre de recherche sur les données massives (CRDM)

Spécialiste de l'IA, de l'apprentissage automatique, du traitement des données massives et du langage naturel, Richard Khoury mène de front plusieurs recherches visant à améliorer le résultat attendu de l'ordinateur afin qu'il puisse résoudre un problème en lui fournissant des algorithmes d'apprentissage. Il travaille notamment à améliorer l'efficacité d'un logiciel qui aide les modérateurs de communautés à trouver les messages haineux dans les conversations en ligne. Il se penche également sur des algorithmes d'apprentissage avancés qui permettront à une compagnie de combiner des informations sur ses clients à partir de plusieurs bases de données afin de personnaliser les produits qu'elle leur offre.

Données massives

L'intelligence artificielle permet de donner un sens aux quantités colossales de données (big data) que les avancées technologiques permettent désormais de recueillir. Le défi, pour les chercheurs, est de trouver de nouvelles méthodes pour que l'ordinateur puisse rassembler et analyser les données afin d'en tirer des conclusions fiables ou nouvelles grâce au croisement de données diverses. Pour parvenir à résoudre des problèmes ayant une grande complexité logique ou algorithmique, les chercheurs font appel à la neurobiologie computationnelle, à la logique mathématique et à l'informatique. L'analyse, le traitement et l'extraction des données massives ont plusieurs domaines d'application, notamment en médecine pour l'aide au diagnostic, en industrie et en transport pour l'aide à la décision et l'automatisation de certaines tâches, en communication pour la traduction automatisée, etc.

Échantillonnage et analyse de données

Les données statistiques de plus en plus abondantes et les bases de données toujours plus volumineuses dans des domaines comme la biologie, l'écologie et la génétique motivent les chercheurs à élaborer de nouveaux outils pour les analyser, que ce soit par l'échantillonnage statistique, les modèles de capture-recapture, les modèles avec effets aléatoires ou les données non standard définies sur des ensembles mathématiques complexes.

Louis-Paul Rivest, professeur au Département de mathématiques et de statistique

Louis-Paul Rivest, professeur titulaire, Département de mathématiques et de statistique

Titulaire de la Chaire de recherche du Canada en échantillonnage statistique et analyse de données

Le professeur Rivest est un spécialiste de l'échantillonnage et de la méthodologie d'enquête, de l'analyse de données directionnelles, des modèles de capture-recapture et de statistique multidimensionnelle, comme les La copule est un objet mathématique venant de la théorie des probabilités. et les tableaux de fréquence. Grâce à sa chaire, il fournit des outils d'acquisition et d'analyse de données qui servent à analyser des phénomènes complexes touchant les populations humaines ou animales. Par exemple, lors d'enquêtes sociales, il couple des données d'enquête avec celles de réseaux sociaux, ce qui permet d'améliorer les estimations pour de petits sous-groupes d'une population.

Modélisation mathématique multiphysique

La modélisation mathématique multiphysique permet de créer des modèles mathématiques qui prennent en compte l'ensemble des phénomènes physiques complexes (élasticité, plasticité, thermique, fluide, électromagnétisme) qui interviennent lors de la fabrication ou de l'usure d'un produit. Ces modèles servent à résoudre des problèmes appliqués menant à la conception de produits de meilleure qualité. Les chercheurs utilisent des équations à dérivées partielles (Fourier, Navier-Stokes, Maxwell, etc.) pour étudier la résolution théorique de situations complexes et mettre au point des outils pour les résoudre.

J’ai choisi de faire un doctorat en actuariat afin de développer mon autonomie en recherche et ma créativité dans ce domaine de prévisions et de gestion du hasard. Je m’intéresse plus précisément à la modélisation de la dépendance, aux mesures de risques et à l’allocation de capital.

Ishan Chaoubi, étudiante au doctorat en actuariat sous la direction de la professeure Hélène Cossette

Théorie du risque

La théorie du risque consiste, pour une compagnie d'assurance, à évaluer le risque global d'un portefeuille de risques couverts par un contrat d'assurance. La distribution du montant total des sinistres pour un même portefeuille sert à mesurer ce risque global qui, une fois quantifié, permet de déterminer la prime qui servira à compenser les indemnités des personnes assurées en cas de sinistre. Les risques se mesurent au moyen de 2 paramètres: leur fréquence ainsi que leur gravité ou sévérité.

Etienne Marceau, professeur à l'École d'actuariat

Etienne Marceau, professeur titulaire, École d'actuariat

Codirecteur du Laboratoire Act & Risk

Spécialiste de la modélisation, de l'évaluation et de la gestion quantitative des risques en actuariat, Étienne Marceau a même écrit un livre sur le sujet (Modélisation et évaluation quantitative des risques en actuariat, Springer Verlag, 2013). Il s'intéresse par exemple à la modélisation de la dépendance entre différents risques actuariels et aux méthodes numériques servant à mieux évaluer quantitativement le risque global et établir des primes en conséquence. Ses intérêts de recherche touchent également la modélisation des risques financiers et de la mortalité dans le domaine de l'actuariat.

Traitement du signal

Le traitement du signal est une discipline qui touche les techniques de traitement, d'analyse et d'interprétation des signaux. Elle comprend notamment le contrôle, le filtrage, la transmission de données, la réduction du bruit, l'identification, etc. Le traitement du signal fait appel à l'électronique et à l'automatique, mais aussi à de nombreux autres domaines, dont les mathématiques (algèbre linéaire, Un processus stochastique est un processus dans lequel, à une variable déterminée, correspond au moins une variable simplement probable.), la théorie de l'information et l'analyse numérique. On distingue les signaux analogiques, produits par des capteurs et des amplificateurs, des signaux numériques provenant d'ordinateurs et de terminaux.

Paul Fortier, professeur titulaire, Département de génie électrique et de génie informatique

Directeur de l'Institut technologies de l'information et sociétés

Le professeur Fortier est spécialisé dans le traitement numérique des signaux appliqué aux communications. Il s'intéresse aux systèmes qui combinent le Cette technique de modulation de signaux transmise par ondes radioélectriques consiste à répartir les données sur de multiples porteuses voisines, séparées les unes des autres. et le Multiple-input multiple-output est une technologie de multiplexage utilisée dans les réseaux sans fil et les réseaux mobiles pour transférer des données à longue portée et à débit élevé à l'aide d'antennes. dans un contexte de liaisons sans fil, mobiles ou fixes. Un de ses projets de recherche consiste à construire de nouvelles architectures pour les systèmes sans fil du futur.

Vision infrarouge

L'infrarouge est une onde électromagnétique qui est d'une fréquence inférieure à celle de la lumière visible, le rouge, et qui a un lien direct avec la chaleur puisque les objets émettent des radiations dans le domaine infrarouge. Les systèmes de télédétection multispectraux captent cette radiation infrarouge (ou thermique) tout comme le visible et l'infrarouge réfléchi. Les nouvelles générations d'appareils infrarouges et la puissance des ordinateurs ont permis de diversifier les usages de l'infrarouge qui ont désormais la capacité de détecter les points faibles de l'isolation d'un bâtiment, de localiser des victimes difficilement accessibles lors d'un sauvetage, d'étudier des espèces animales nocturnes ou encore de diagnostiquer des pathologies.

Xavier Maldague, professeur titulaire, Département de génie électrique et de génie informatique

Titulaire de la Chaire de recherche du Canada en vision infrarouge multipolaire

Xavier Maldague est un spécialiste de l'analyse non destructive de matériaux par thermographie infrarouge qui tente de résoudre des problèmes qui limitent l'utilisation de la vision infrarouge dans plusieurs secteurs. Par exemple, il travaille à améliorer la détection des changements subtils de température d'une surface qui révèlent la présence d'un vice caché. Il explore aussi l'utilité de la vision infrarouge dans plusieurs domaines à l'aide de simulations numériques de phénomènes thermiques. Il observe notamment, à l'aide de caméras thermographiques, les anomalies thermiques dans les pyramides d'Égypte, telles Khéops et Gizeh, afin d'ausculter ces structures uniques et comprendre leurs techniques de construction.

La recherche sur les données massives est un domaine en expansion rapide à travers le monde et les besoins en technologie, en connaissances et en main-d’œuvre dans ce domaine feront l'objet d'une demande énorme au cours des prochaines années.

François Laviolette, professeur au Département d'informatique et de génie logiciel