Les programmes obtenus par apprentissage automatique ont souvent la capacité de transformer les données sous une forme appropriée avant d’accomplir une tâche spécifique plus efficacement. Toutefois, ces transformations sont difficiles à comprendre et à appréhender en raison de la complexité intrinsèque des modèles d’apprentissages à grande capacité. Ceci représente donc un obstacle à l’interprétation du fonctionnement du modèle. Alors qu’une augmentation de la capacité du modèle signifie souvent une perte en termes d’interprétabilité, l’acceptation et la certification du modèle appris par les différents acteurs concernés dépend de notre compréhension et de notre confiance en ces modèles.
Cet axe de recherche se concentre ainsi sur les aspects fondamentaux des deux principales formes d’interprétabilité : la transparence, qui concerne l’interprétabilité du modèle dans son entier, et l’explicabilité, qui se rapporte à l’interprétabilité des prédictions ou des décisions particulières faites par le modèle.
Responsable d’axe : Mario Marchand, Université Laval