La protection des informations sensibles contre une divulgation inappropriée est une préoccupation importante dans les systèmes basés sur l’Intelligence Artificielle. Dans ce contexte, corriger les failles au fur et à mesure qu’elles sont découvertes n’est pas acceptable et il devient nécessaire de suivre une approche méthodique basée sur des garanties théoriques afin d’intégrer la confidentialité dans la conception du système.
Les approches basées sur l’apprentissage automatique doivent leur succès, en grande partie, à l’abondance de données collectées à partir d’un large éventail de sources. La plupart de ces données contiennent des informations privées sur des personnes ou des institutions, qui doivent être protégées contre les fuites ou les divulgations abusives. En outre, avec des coûts de R&D et de formation faramineux, les modèles d’apprentissage automatique sont devenus la pierre angulaire de nombreux produits et services au cours des dernières années, ce qui en fait l’un des actifs les plus précieux de nombreuses entreprises. Les modèles d’apprentissage automatique doivent donc être dotés de mécanismes efficaces pour éviter qu’ils ne soient volés ou imités, protégeant ainsi la propriété intellectuelle de leurs propriétaires.
Équipe du projet
Jeux de données utilisés pour les expérimentations
Référence