Stage recherche: l'incertitude pour renforcer les explications contrefactuelles F/H
Stage Lannion (Côtes-d'Armor)
Description de l'offre
votre rôle
Les décisions automatisées se généralisent dans des domaines sensibles (banque, assurance, santé, éducation) avec un impact direct sur les individus. Or, la plupart des modèles restent des boîtes noires. Rendre leurs décisions explicables, c’est permettre de comprendre quels facteurs ont motivé la décision de l’algorithme. Cependant, si le modèle est incertain, la question de la pertinence de l’explication se pose.
L'objectif de ce stage est d'étudier comment la quantification de l'incertitude du modèle de décision et les approches d’explicabilité peuvent être combinées pour produire des explications plus fiables. On s’intéresse en particulier à voir si on peut utiliser l’incertitude du modèle pour sélectionner une explication (ou la rejeter).
On distingue deux formes d’incertitude : l’incertitude aléatoire qui correspond à la variabilité intrinsèque des données ou du processus, qui est irréductible, et l’incertitude épistémique, liée à la quantité d’information dont on dispose, qui peut être réduite en améliorant le modèle. Le stage analysera l’Impact de ces deux composantes sur la fiabilité de l’explication.
Le contexte est celui des explications contrefactuelles (un exemple proche de l’exemple à expliquer, mais qui se verrait attribuer une décision différente) pour les données tabulaires. On pourra s’appuyer sur l’outil de calcul d’incertitudes DEMAU: (Decompose, Explore, Model and Analyze Uncertainties).
Références
Sokol, K., & Hüllermeier, E. (2025). All you need for counterfactual explainability is principled and reliable estimate of aleatoric and epistemic uncertainty. arXiv preprint arXiv:2502.17007.
Zhu, C., Bounia, L., Nguyen, V. L., Destercke, S., & Hoarau, A. (2025). Robust Explanations Through Uncertainty Decomposition: A Path to Trustworthier AI. arXiv preprint arXiv:2507.12913.
Guidotti, R. Counterfactual explanations and how to find them: literature review and benchmarking. Data Mining and Knowledge Discovery, 38(5):2770–2824, September 2024.
votre profil
• Étudiant(e) en dernière année d’école d’ingénieur, de master en IA/Data Science.
• Une expérience pratique en programmation Python
• Rigueur dans l’établissement du plan d’expériences et dans le développement afin de permettre de reproduire les résultats d’expérience
• Curiosité, autonomie, esprit de recherche, capacité à vulgariser.
• Une bonne capacité d’analyse, de synthèse et de communication pour rédiger des rapports techniques et des recommandations.
entité
Composée d'une vingtaine de permanents, accueillant 4 doctorants, PROF est une équipe orientée analyse de données, machine learning et intelligence artificielle, conjuguant travaux de recherche et mise en oeuvre applicative.
Les membres de l'équipe sont basés à Lannion (majoritairement) et Paris.
contrat
Stage
Durée : 6 mois
Date souhaitée de prise de poste : 01 avr. 2026
Stage rémunéré
Seules vos compétences comptent
Quel que soit votre âge, genre, origine, religion, orientation sexuelle, neuroatypie, handicap ou apparence, nous encourageons la diversité au sein de nos équipes car c’est une force pour le collectif et un vecteur d’innovation
Orange est une entreprise handi-accueillante : n'hésitez pas à nous faire part de vos besoins spécifiques.