Face à de légères perturbations, comment entraîner des modèles robustes?

Développement d’un cadre méthodologique général pour atteindre la robustesse aux instances adverses par la détection et la régularisation

EN COURS

Pour que les modèles soient robustes, ils doivent donner de bons résultats même lorsque les instances sont légèrement perturbées spécifiquement afin de les tromper.

Les progrès et succès considérables des réseaux de neurones profonds ont été accompagnés de la découverte de plusieurs faiblesses. Plus précisément, il a été démontré qu’ils sont vulnérables à à de petites perturbations qui peuvent être imperceptibles pour les humains mais qui induisent facilement les modèles en erreur. Ces exemples adversaires constituent une menace pour le déploiement de ces modèles dans les applications critiques de sécurité. Le but de ce projet est d’être capable de détecter et/ou d’atteindre la robustesse aux exemples adversaires.

Équipe du projet

Équipe du projet