Aller au contenu principal

Conférence hybride | Adaptabilité des modèles fondations

Vendredi 27 septembre 2024
12h - 13h

Description de l'événement

Dans cette présentation animée par Mathieu Pagé Fortin (scientifique de la défense, RDDC), nous analyserons comment les modèles fondations, grâce à leur formation sur des données massives et diversifiées, peuvent être adaptés pour résoudre efficacement des tâches spécialisées. Cette adaptabilité permet de tirer parti de leur compréhension des données pour répondre à des besoins spécifiques sans nécessiter de nouveaux entraînements exhaustifs. Nous examinerons également les mécanismes qui sous-tendent cette adaptabilité tels que l’apprentissage par transfert, l’apprentissage avec peu d’exemples, et l’ingénierie d’invites.

Mathieu Pagé Fortin a récemment obtenu son doctorat en informatique à l’Université Laval, où il s’est spécialisé dans l’étude des réseaux de neurones profonds. Ses recherches se sont concentrées sur l’adaptabilité et l’extensibilité de ces réseaux, c’est-à-dire leur capacité à apprendre de nouvelles tâches efficacement et à acquérir continuellement de nouvelles connaissances sans oublier celles déjà acquises. Ses travaux se sont portés notamment sur l’apprentissage avec peu d’exemples (few-shot learning), l’apprentissage continuel ainsi que l’apprentissage multimodal.

Lieu : local 2765 du pavillon Adrien-Pouliot ou sur la plateforme Zoom