Peut-on garantir la confidentialité des modèles d’apprentissage automatique?

Analyse quantitative des flux d’information liés à la confidentialité des données et des modèles dans les systèmes basés sur l’apprentissage automatique

EN COURS

La protection des informations sensibles contre une divulgation inappropriée est une préoccupation importante dans les systèmes basés sur l’Intelligence Artificielle. Dans ce contexte, corriger les failles au fur et à mesure qu’elles sont découvertes n’est pas acceptable et il devient nécessaire de suivre une approche méthodique basée sur des garanties théoriques afin d’intégrer la confidentialité dans la conception du système.

Les approches basées sur l’apprentissage automatique doivent leur succès, en grande partie, à l’abondance de données collectées à partir d’un large éventail de sources. La plupart de ces données contiennent des informations privées sur des personnes ou des institutions, qui doivent être protégées contre les fuites ou les divulgations abusives. En outre, avec des coûts de R&D et de formation faramineux, les modèles d’apprentissage automatique sont devenus la pierre angulaire de nombreux produits et services au cours des dernières années, ce qui en fait l’un des actifs les plus précieux de nombreuses entreprises. Les modèles d’apprentissage automatique doivent donc être dotés de mécanismes efficaces pour éviter qu’ils ne soient volés ou imités, protégeant ainsi la propriété intellectuelle de leurs propriétaires.

Équipe du projet

Jeux de données utilisés pour les expérimentations

Référence

QIF (DEEL Workshops)

Équipe du projet