Comment la logique mathématique aide à concevoir des modèles interprétables?

Arbres de décision dispersés basés sur la logique pour une meilleure interprétabilité

EN COURS

L’interprétabilité, qu’elle soit sous forme de transparence ou d’explicabilité, est un pilier de la certifiabilité.

L’interprétabilité de l’Intelligence Artificielle est la propriété qui permet à un expert de comprendre pourquoi une prédiction est faite. Fournir des modèles interprétables est d’une grande importance dans les applications où la santé, la liberté, les préjugés raciaux et la sécurité sont en jeu. En outre, l’interprétabilité joue un rôle crucial dans les processus de production en permettant aux ingénieurs de comprendre les défaillances des modèles appris afin d’y remédier. De plus, dans la recherche, les algorithmes interprétables sont utiles car ils dévoilent souvent de nouvelles pistes d’investigation. Ce projet vise à combiner deux algorithmes d’apprentissage automatique supervisé pour optimiser à la fois l’interprétabilité et la performance en tirant parti des outils de la logique mathématique. Ce nouvel algorithme vise à améliorer les prédictions en augmentant légèrement la complexité du modèle tout en préservant un haut niveau d’interprétabilité.

Équipe du projet

Jeux de données utilisés pour les expériences

Équipe du projet