Savons-nous avec certitude pourquoi le modèle a fait cette prédiction?

Vers une prise de décision nuancée via la quantification de l’incertitude des explications post-hoc

EN COURS

Ce projet s’intéresse à l’explication des prédictions de modèles boîte noire tels que les Réseaux de Neurones Profonds et les Forêts Aléatoires.

Plusieurs méthodes d’explication post-hoc existent et sont déjà utilisées dans la pratique, comme LIME, les valeurs de Shapley, les gradients intégrés, pour n’en citer que quelques-unes. Cependant, exécuter un algorithme d’apprentissage et/ou une méthode d’explication plusieurs fois peut produire des explications contradictoires, ce qui impacte la confiance en ces techniques. Dans ce projet, nous étudions la variabilité des explications provenant de l’incertitude du modèle et des techniques d’explication dans le but de développer des stratégies fiables pour expliquer les prédictions de la boîte noire.

Équipe du projet

Équipe du projet