Où docteurs et entreprises se rencontrent
Menu
Connexion

DevSecMLOps : sécurité dès la conception pour des pipelines d'apprentissage automatique fiables // DevSecMLOps: Security-by-Design for Trustworthy Machine Learning Pipelines

ABG-133506
ADUM-67594
Sujet de Thèse
22/09/2025 Autre financement public
Université de Toulouse
Toulouse cedex 4 - Occitanie - France
DevSecMLOps : sécurité dès la conception pour des pipelines d'apprentissage automatique fiables // DevSecMLOps: Security-by-Design for Trustworthy Machine Learning Pipelines
  • Informatique
MLOps, Génie logiciel, Cybersécurité
MLOps, software engineering, cybersecurity

Description du sujet

Contexte
Les Machine Learning Operations (MLOps) sont devenues essentielles pour gérer le cycle de vie des modèles ML, en assurant livraison continue, automatisation et reproductibilité. Cependant, la sécurité n'a pas suivi la même évolution rapide. Les pratiques classiques de sécurité logicielle (analyses statiques, scans dynamiques, évaluations de vulnérabilités) sont bien établies, mais les pipelines ML présentent des risques spécifiques : attaques adversariales, empoisonnement de modèles, compromission des données d'entraînement, dérive des modèles, injection d'attaques, ainsi que des défis de confidentialité et de conformité (protection des données personnelles, PII). Les pratiques MLOps actuelles manquent de mécanismes de sécurité intégrés, sont fragmentées et souvent incompatibles avec l'agilité promise. Cela a donné naissance au domaine émergent du DevSecMLOps, qui adapte les principes de DevSecOps aux systèmes ML pour concilier sécurité et agilité.

Le problème central est l'absence d'une approche unifiée et systématique pour intégrer la security-by-design dans l'ensemble des pipelines MLOps, incluant :

l'intégration explicite des exigences de sécurité dès la conception,

le suivi et le contrôle continu de ces exigences à toutes les étapes du pipeline,

l'adaptation aux menaces évolutives sans ralentir le déploiement.

Sans cette approche, les systèmes d'IA risquent d'être performants mais fragiles, exposant les organisations à des failles critiques de sécurité et de confidentialité.

Objectifs
La thèse visera à poser les bases et à développer des mécanismes pratiques de DevSecMLOps, avec un accent particulier sur la confidentialité des données et la robustesse des modèles. Les objectifs incluent :

Intégrer les exigences de sécurité dans les workflows ML dès le début, en anticipant et en atténuant les menaces (empoisonnement de données, manipulation adversariale, fuites de données).

Explorer l'automatisation assistée par IA pour réaliser des contrôles de sécurité continus, tests adversariaux et détection d'anomalies, conciliant rigueur et agilité.

Développer un cadre méthodologique et technique opérationnalisant la sécurité dans les pipelines ML, permettant un déploiement fiable et performant des systèmes d'IA.

Mission du doctorant
Le doctorant :

étudiera les vulnérabilités tout au long du cycle de vie ML et analysera les pratiques MLOps existantes,

identifiera comment étendre les principes DevSecOps aux workflows ML,

concevra des mécanismes de security-by-design adaptés à chaque étape (ingestion des données, prétraitement, entraînement, déploiement),

explorera l'usage de ML pour automatiser les contrôles de sécurité et générer des tests adversariaux,

validera les solutions via des cas industriels (Softeam Group), évaluant l'efficacité sur la réduction des menaces tout en maintenant reproductibilité et rapidité de livraison.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Context
Machine Learning Operations (MLOps) have become essential for managing the lifecycle of ML models, ensuring continuous delivery, automation, and reproducibility. However, security practices have not kept pace. Traditional software security methods (static analysis, dynamic scans, vulnerability assessments) are well established, but ML pipelines face unique risks: adversarial attacks, model poisoning, compromised training data, model drift, injection attacks, as well as privacy and compliance challenges (e.g., protecting personally identifiable information, PII). Current MLOps practices lack integrated, end-to-end security mechanisms, are fragmented, and can hinder the agility promised by MLOps. This has led to the emerging field of DevSecMLOps, which adapts DevSecOps principles to ML systems to combine security with agility.

The core problem is the absence of a unified, systematic approach to embed security-by-design across the entire MLOps pipeline, including:

Explicitly incorporating security requirements from the start,

Continuously monitoring and enforcing them across all pipeline stages,

Adapting to evolving threats without slowing deployment.

Without such an approach, AI systems risk being performant but fragile, exposing organizations to critical security and privacy breaches.

Objectives
The PhD will investigate foundational and practical mechanisms of DevSecMLOps, focusing on data privacy and model robustness. Key objectives include:

Integrate security requirements directly into ML workflows, anticipating and mitigating threats such as data poisoning, adversarial manipulation, and privacy leakage.

Explore AI-driven automation for continuous security checks, adversarial testing, and anomaly detection, balancing security rigor with delivery agility.

Develop a methodological and technical framework operationalizing security for ML pipelines, enabling organizations to deploy AI systems that are both performant and trustworthy.

Mission of the PhD candidate
The candidate will:

Conduct a comprehensive study of vulnerabilities across the ML lifecycle and analyze current MLOps practices,

Examine how DevSecOps principles can be extended to ML workflows,

Design security-by-design mechanisms covering all stages (data ingestion, preprocessing, model training, deployment),

Explore ML-based automation for security checks and adversarial testing,

Validate proposed solutions through industrial case studies (Softeam Group), assessing effectiveness in mitigating threats while maintaining reproducibility and delivery speed.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Début de la thèse : 01/10/2026

Nature du financement

Autre financement public

Précisions sur le financement

ANR Financement d'Agences de financement de la recherche

Présentation établissement et labo d'accueil

Université de Toulouse

Etablissement délivrant le doctorat

Université de Toulouse

Ecole doctorale

475 EDMITT - Ecole Doctorale Mathématiques, Informatique et Télécommunications de Toulouse

Profil du candidat

L'appel est ouvert aux étudiants en master ou aux professionnels ; les étudiants en master à la recherche d'un stage de 6 mois, avec l'intention de poursuivre en doctorat, sont également invités à postuler
The call is open to master's students or professionals; master's students seeking a 6-month internship with the intention of pursuing a PhD are also invited to apply.
21/09/2026
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?