Stage recherche: l'incertitude pour renforcer les explications contrefactuelles F/H
Stage Lannion (Côtes-d'Armor)
Description de l'offre
Publication date: Nov 17, 2025, 11:30AM
Les décisions automatisées se généralisent dans des domaines sensibles (banque, assurance, santé, éducation) avec un impact direct sur les individus. Or, la plupart des modèles restent des boîtes noires. Rendre leurs décisions explicables, c’est permettre de comprendre quels facteurs ont motivé la décision de l’algorithme. Cependant, si le modèle est incertain, la question de la pertinence de l’explication se pose.
L'objectif de ce stage est d'étudier comment la quantification de l'incertitude du modèle de décision et les approches d’explicabilité peuvent être combinées pour produire des explications plus fiables. On s’intéresse en particulier à voir si on peut utiliser l’incertitude du modèle pour sélectionner une explication (ou la rejeter).
On distingue deux formes d’incertitude: l’incertitude aléatoire qui correspond à la variabilité intrinsèque des données ou du processus, qui est irréductible, et l’incertitude épistémique, liée à la quantité d’information dont on dispose, qui peut être réduite en améliorant le modèle. Le stage analysera l’Impact de ces deux composantes sur la fiabilité de l’explication.
Le contexte est celui des explications contrefactuelles (un exemple proche de l’exemple à expliquer, mais qui se verrait attribuer une décision différente) pour les données tabulaires. On pourra s’appuyer sur l’outil de calcul d’incertitudes DEMAU: (Decompose, Explore, Model and Analyze Uncertainties).
Références
Sokol, K., & Hüllermeier, E. (2025). All you need for counterfactual explainability is principled and reliable estimate of aleatoric and epistemic uncertainty.arXiv preprint arXiv:2502.17007.
Zhu, C., Bounia, L., Nguyen, V. L., Destercke, S., & Hoarau, A. (2025). Robust Explanations Through Uncertainty Decomposition: A Path to Trustworthier AI.arXiv preprint arXiv:2507.12913.
Guidotti, R. Counterfactual explanations and how to find them: literature review and benchmarking. Data Mining and Knowledge Discovery, 38(5):2770–2824, September 2024.
• Étudiant(e) en dernière année d’école d’ingénieur, de master en IA/Data Science.
• Une expérience pratique en programmation Python
• Rigueur dans l’établissement du plan d’expériences et dans le développement afin de permettre de reproduire les résultats d’expérience
• Curiosité, autonomie, esprit de recherche, capacité à vulgariser.
• Une bonne capacité d’analyse, de synthèse et de communication pour rédiger des rapports techniques et des recommandations.
Composée d'une vingtaine de permanents, accueillant 4 doctorants, PROF est une équipe orientée analyse de données, machine learning et intelligence artificielle, conjuguant travaux de recherche et mise en oeuvre applicative.
Les membres de l'équipe sont basés à Lannion (majoritairement) et Paris.
Desired start date: Apr 01, 2026, 12:00AM
Seules vos compétences comptent
Quel(s) que soient votre âge, votre sexe, vos origines, votre religion, votre orientation sexuelle, votre neuro-diversité, votre handicap ou votre apparence, nous encourageons activement la diversité au sein de nos équipes, car elle est à la fois une force collective et un moteur d'innovation. Orange est une entreprise accessible aux personnes en situation de handicap : n'hésitez pas à nous faire part de vos besoins spécifiques.