Peut-on quantifier l'incertitude des résultats obtenus par les réseaux de neurones?

Estimation de l’incertitude prédictive dans l’apprentissage profond

COMPLÉTÉ

Les représentations probabilistes nous permettent de quantifier les erreurs de prédiction, ce qui constitue une première étape importante pour améliorer la généralisation et la robustesse des modèles appris.

Les réseaux de neurone profonds produisent généralement des estimations ponctuelles en guise de prédictions, ce qui rend difficile l’évaluation de la fiabilité de leurs résultats. Nous travaillons à la conception de réseaux de neurones capables d’estimer une représentation probabiliste de leur sortie. Notre objectif est d’éviter de restreindre cette représentation à une distribution de probabilité paramétrique spécifique tout en respectant un usage de la mémoire et des temps d’exécution qui permettent d’aborder des tâches complexes. Notre représentation quantifie correctement la gravité des erreurs dans les prédictions, ainsi que le manque de connaissances sur les instances qui n’ont jamais été vues pendant l’entraînement. De cette façon, nous pouvons déterminer comment utiliser les prédictions de ces réseaux probabilistes en fonction de leur incertitude quantifiée. Notre travail est particulièrement important pour le déploiement des réseaux de neurones en robotique et en automatisation pour les domaines critiques.

Équipe du projet

Jeux de données utilisés

Équipe du projet