Apprentissage Fédéré Robuste et Sécurisé // Robust and Secure Federated Learning
ABG-132794 | Thesis topic | |
2025-07-05 | Public/private mixed funding |
CEA Paris-Saclay Lab.systèmes d’information de confiance, intelligents et auto-organisants
Saclay
Apprentissage Fédéré Robuste et Sécurisé // Robust and Secure Federated Learning
- Data science (storage, security, measurement, analysis)
Cybersécurité : hardware et software / Défis technologiques / Informatique et logiciels / Sciences pour l’ingénieur
Topic description
L’Apprentissage Fédéré (FL) permet à plusieurs clients d’entraîner ensemble un modèle global sans partager leurs données brutes. Bien que cette approche décentralisée soit particulièrement adaptée aux domaines sensibles à la vie privée, comme la santé ou la finance, elle n’est pas intrinsèquement sécurisée : les mises à jour de modèle peuvent révéler des informations privées, et des clients malveillants (Byzantins) peuvent corrompre l’apprentissage.
Pour faire face à ces défis, deux grandes stratégies sont employées : l’Agrégation Sécurisée, qui préserve la confidentialité en masquant les mises à jour individuelles, et l’Agrégation Robuste, qui filtre les contributions malveillantes. Cependant, ces objectifs peuvent entrer en conflit : les mécanismes de confidentialité peuvent masquer les signes de comportements malveillants, tandis que la robustesse peut nécessiter un accès à des informations sensibles.
De plus, la majorité des travaux se concentrent sur les attaques au niveau des modèles, négligeant les menaces au niveau du protocole, comme les délais de message ou les mises à jour perdues — des comportements fréquents dans des réseaux réels et asynchrones.
Cette thèse vise à explorer le compromis entre confidentialité et robustesse en FL, à identifier des modèles de sécurité réalistes, et à concevoir des protocoles pratiques, sûrs et robustes. L’approche combinera une analyse théorique des garanties possibles et une implémentation de prototypes s’appuyant sur des outils comme le calcul multipartite sécurisé, des primitives cryptographiques et la confidentialité différentielle.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Federated Learning (FL) allows multiple clients to collaboratively train a global model without sharing their raw data. While this decentralized setup is appealing for privacy-sensitive domains like healthcare and finance, it is not inherently secure: model updates can leak private information, and malicious clients can corrupt training.
To tackle these challenges, two main strategies are used: Secure Aggregation, which protects privacy by hiding individual updates, and Robust Aggregation, which filters out malicious updates. However, these goals can conflict—privacy mechanisms may obscure signs of malicious behavior, and robustness methods may violate privacy.
Moreover, most research focuses on model-level attacks, neglecting protocol-level threats like message delays or dropped updates, which are common in real-world, asynchronous networks.
This thesis aims to explore the privacy–robustness trade-off in FL, identify feasible security models, and design practical, secure, and robust protocols. Both theoretical analysis and prototype implementation will be conducted, leveraging tools like Secure Multi-Party Computation, cryptographic techniques, and differential privacy.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département Ingénierie Logiciels et Systèmes (LIST)
Service : LICIA (DILS)
Laboratoire : Lab.systèmes d’information de confiance, intelligents et auto-organisants
Date de début souhaitée : 01-10-2025
Ecole doctorale : Sciences et Technologies de l’Information et de la Communication (STIC)
Directeur de thèse : TUCCI-PIERGIOVANNI Sara
Organisme : CEA
Laboratoire : DRT/DILS//LICIA
Pour faire face à ces défis, deux grandes stratégies sont employées : l’Agrégation Sécurisée, qui préserve la confidentialité en masquant les mises à jour individuelles, et l’Agrégation Robuste, qui filtre les contributions malveillantes. Cependant, ces objectifs peuvent entrer en conflit : les mécanismes de confidentialité peuvent masquer les signes de comportements malveillants, tandis que la robustesse peut nécessiter un accès à des informations sensibles.
De plus, la majorité des travaux se concentrent sur les attaques au niveau des modèles, négligeant les menaces au niveau du protocole, comme les délais de message ou les mises à jour perdues — des comportements fréquents dans des réseaux réels et asynchrones.
Cette thèse vise à explorer le compromis entre confidentialité et robustesse en FL, à identifier des modèles de sécurité réalistes, et à concevoir des protocoles pratiques, sûrs et robustes. L’approche combinera une analyse théorique des garanties possibles et une implémentation de prototypes s’appuyant sur des outils comme le calcul multipartite sécurisé, des primitives cryptographiques et la confidentialité différentielle.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Federated Learning (FL) allows multiple clients to collaboratively train a global model without sharing their raw data. While this decentralized setup is appealing for privacy-sensitive domains like healthcare and finance, it is not inherently secure: model updates can leak private information, and malicious clients can corrupt training.
To tackle these challenges, two main strategies are used: Secure Aggregation, which protects privacy by hiding individual updates, and Robust Aggregation, which filters out malicious updates. However, these goals can conflict—privacy mechanisms may obscure signs of malicious behavior, and robustness methods may violate privacy.
Moreover, most research focuses on model-level attacks, neglecting protocol-level threats like message delays or dropped updates, which are common in real-world, asynchronous networks.
This thesis aims to explore the privacy–robustness trade-off in FL, identify feasible security models, and design practical, secure, and robust protocols. Both theoretical analysis and prototype implementation will be conducted, leveraging tools like Secure Multi-Party Computation, cryptographic techniques, and differential privacy.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département Ingénierie Logiciels et Systèmes (LIST)
Service : LICIA (DILS)
Laboratoire : Lab.systèmes d’information de confiance, intelligents et auto-organisants
Date de début souhaitée : 01-10-2025
Ecole doctorale : Sciences et Technologies de l’Information et de la Communication (STIC)
Directeur de thèse : TUCCI-PIERGIOVANNI Sara
Organisme : CEA
Laboratoire : DRT/DILS//LICIA
Funding category
Public/private mixed funding
Funding further details
Presentation of host institution and host laboratory
CEA Paris-Saclay Lab.systèmes d’information de confiance, intelligents et auto-organisants
Pôle fr : Direction de la Recherche Technologique
Pôle en : Technological Research
Département : Département Ingénierie Logiciels et Systèmes (LIST)
Service : LICIA (DILS)
Candidate's profile
Informatique, mathématiques
Apply
Close
Vous avez déjà un compte ?
Nouvel utilisateur ?
More information about ABG?
Get ABG’s monthly newsletters including news, job offers, grants & fellowships and a selection of relevant events…
Discover our members
Tecknowmetrix
TotalEnergies
Ifremer
ADEME
MabDesign
ASNR - Autorité de sûreté nucléaire et de radioprotection - Siège
SUEZ
Institut Sup'biotech de Paris
ANRT
ONERA - The French Aerospace Lab
CESI
Nokia Bell Labs France
CASDEN
Laboratoire National de Métrologie et d'Essais - LNE
PhDOOC
MabDesign
Groupe AFNOR - Association française de normalisation
Aérocentre, Pôle d'excellence régional
Généthon