Quelle confiance pouvons-nous accorder aux modèles entraînés?

Évaluation de la robustesse des modèles d’apprentissage profond

EN COURS

Dans ce projet de recherche, nous essayons de déterminer quand il est possible d’avoir confiance en la prédiction d’un réseau de neurones. Cette information peut être exploitée pour créer des modèles robustes capables de détecter les instances éloignées de la distribution d’entraînement ou qui ont été perturbées par une attaque adversaire

L’apprentissage profond a prouvé sa capacité à résoudre des tâches complexes et à obtenir des résultats de pointe dans divers domaines. Cependant, en raison du décalage de distribution entre les données d’entraînement collectées et les données de test réelles, le modèle peut prédire une sortie avec une forte probabilité tout en étant incertain de cette prédiction. Ce problème rend difficile l’utilisation des modèles de réseaux de neurones dans des domaines où la sécurité est critique, telles que la conduite autonome, la robotique, la prédiction d’images médicales, le contrôle des passeports, etc. Notre objectif est donc d’évaluer l’incertitude d’un réseau de neurones autour de ses prédictions afin d’augmenter la robustesse des modèles d’apprentissage profond.

Équipe du projet

Jeux de données utilisés pour les expériences

Équipe du projet