Les modèles interprétables peuvent-ils concurrencer les modèles à boîte noire?

Apprentissage de règles sous forme normale disjonctive par descente de gradient

Complété

Alors que de nombreux efforts dans le domaine de l’interprétabilité tentent d’expliquer le raisonnement derrière les modèles de la boîte noire, ce projet vise l’apprentissage de modèles intrinsèquement interprétables qui peuvent les concurrencer.

Les règles booléennes sous Forme Normale Disjonctive (DNF) de petite taille sont facilement interprétables. En fait, lorsque les humains doivent prendre une décision, ils ont tendance à ne considérer que certains attributs importants et à les organiser en utilisant des disjonctions de conjonctions. Par exemple, une personne qui prévoit acheter une voiture d’occasion si elle a un faible kilométrage et un prix moyen, ou seulement un prix bas, suit une règle DNF simple. Cela fait des règles DNF un choix de prédilection pour un modèle interprétable. Alors que l’apprentissage des règles DNF a été étudié d’un point de vue théorique depuis les années 80, nous cherchons l’apprentissage de règles DNF sur des données bruyantes du « monde réel », sur lesquelles peu de travaux ont été réalisés. Une approche que nous étudions consiste à représenter les règles de la Forme Normale Disjonctive sous forme de réseaux de neurones et à les entraîner avec la descente de gradient. L’objectif du projet est de démontrer que des résultats de classification précis peuvent être obtenus tout en extrayant des règles interprétables.

Équipe du projet

Jeux de données utilisées dans le cadre du projet

Équipe du projet