Missions :
L'apprentissage fédéré (FL) est un paradigme prometteur qui gagne du terrain dans le contexte de l'apprentissage automatique préservant la confidentialité pour les systèmes informatiques de pointe [1]. Grâce à FL, plusieurs propriétaires de données appelés clients (par exemple, des organisations dans FL inter-silo) peuvent former de manière collaborative un modèle sur leurs données privées, sans avoir à envoyer leurs données brutes à des fournisseurs de services externes. FL a été rapidement adopté dans plusieurs applications florissantes telles que la santé numérique [2], qui génère le plus grand volume de données au monde [3]. L'apprentissage décentralisé (DL) va plus loin en fournissant un apprentissage fédéré sans serveur, où les données sont conservées chez les clients et aucun serveur n'est nécessaire. Ainsi, DL implique des protocoles distribués et décentralisés pour permettre aux clients de construire un modèle global [4,5,6].
Bien que DL soit une première étape vers la confidentialité en gardant les données locales pour chaque client, cela n'est pas suffisant car les paramètres du modèle partagés par DL sont vulnérables aux attaques de confidentialité [7], comme le montre une ligne de littérature récente [8]. De plus, la DL est plus vulnérable aux comportements malveillants des clients qui peuvent injecter des informations empoisonnées dans les données et les modèles, ce qui entraîne des modèles DL non robustes et peu performants. Des études récentes montrent que la robustesse et la confidentialité dans la DL peuvent entrer en compétition ; les gérer indépendamment – comme c'est le cas habituellement – peut avoir des effets secondaires négatifs l'un sur l'autre.
Par conséquent, il est nécessaire de mettre en place une nouvelle approche multi-objectifs pour la robustesse de la FL et la protection contre les menaces à la vie privée. Ce projet s'attaque à ce défi et a pour mission de :
(i) définir une technique de mesure de compromis entre confidentialité, robustesse et utilité, ces objectifs étant antagonistes ;
(ii) concevoir la technique proposée dans des protocoles DL ;
(iii) piloter une évaluation empirique de la technique conçue dans un système edge-cloud.
Mots-clés :
Systèmes distribués ; Informatique de pointe ; Apprentissage fédéré et décentralisé ; Confidentialité ; Robustesse ;
Références :
[1] N. Rieke, et. al. The Future of Digital Health with Federated Learning. NPJ Digital Medicine 3, 1, 2020.
[2] RBC. The Healthcare Data Explosion.
[3] R. Shokri, et al. Membership Inference Attacks Against Machine Learning Models. IEEE Symposium on Security and Privacy (S&P), May 2017.
[4] Z. Obermeyer, et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464):447-453, Oct. 2019.
[5] N. A. Tomashenko, et. al. Privacy Attacks for Automatic Speech Recognition Acoustic Models in FL. ICASSP 2022.
[6] D. Leslie, et al. Does “AI
Voir plus sur le site emploi.cnrs.fr...
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.