Introduction
Le Groupe de Travail vise à explorer et à faire progresser l’inférence causale, l’apprentissage de structure causale et l’analyse causale. Dans un monde de plus en plus dominé par des modèles prédictifs complexes, qui apprennent à partir des corrélations à classifier, prédire, ou à générer de nouveaux exemples, ces méthodes sont souvent mises à défaut quand il s’agit de généraliser, interpréter et expliquer. Comprendre pourquoi une décision est prise ou pourquoi un phénomène se produit est devenu une nécessité impérieuse. Cette quête de compréhension causale et de transparence est fondamentale pour bâtir des systèmes d’IA dignes de confiance.
Contexte
Traditionnellement, le Machine Learning excelle dans la détection de corrélations et la prédiction. Cependant, une corrélation n’implique pas la causalité. La reconnaissance de cette distinction est à la base de l’intérêt croissant pour l’inférence causale, qui vise à identifier les relations de cause à effet. Des pionniers comme Judea Pearl, avec son cadre du “do-calcul” et les graphes acycliques dirigés (DAGs) [Pearl, 2000], ont jeté les bases théoriques de ce domaine, permettant de distinguer formellement les interventions des observations passives. D’autres approches, comme le modèle de Rubin de l’inférence causale basée sur les potential outcomes [Rubin, 1974], ont également structuré le champ, en particulier en épidémiologie et en statistiques.
Les méthodes d’apprentissage de structure causale sont devenues essentielles pour découvrir ces graphes causaux à partir de données observationnelles, là où l’expérimentation est impossible ou trop coûteuse. Des algorithmes basés sur les contraintes conditionnelles d’indépendance, comme l’algorithme PC [Spirtes et al., 2000], aux approches basées sur l’optimisation par score, comme les réseaux bayésiens, en passant par les méthodes basées sur le bruit additif non-gaussien (e.g., LiNGAM [Shimizu et al., 2006]), le champ est en pleine effervescence. L’objectif est de reconstruire les relations causales sous-jacentes qui ont généré les données observées.
Parallèlement, le besoin d’explicabilité (eXplainable AI - XAI) est devenu central. Alors que les modèles de ML, notamment les réseaux de neurones profonds, atteignent des performances impressionnantes, leur nature de “boîte noire” limite leur adoption dans des domaines critiques comme la santé, la finance ou la justice, où la transparence et la responsabilité sont primordiales. Les techniques XAI visent à rendre ces modèles plus transparents, permettant aux utilisateurs de comprendre les raisons de leurs prédictions. Des approches post-hoc comme LIME (Local Interpretable Model-agnostic Explanations) [Ribeiro et al., 2016] et SHAP (SHapley Additive exPlanations) [Lundberg & Lee, 2017] sont devenues des standards pour attribuer l’importance des caractéristiques à une prédiction spécifique. Plus récemment, l’intérêt s’est porté sur l’explicabilité causale, qui cherche à expliquer une prédiction non pas seulement par ses corrélations, mais par les véritables facteurs causaux qui l’ont influencée [Karimi et al., 2020]. Cette approche promet une explication plus robuste et transférable.
Objectifs
Ce groupe de travail vise à :
- Rassembler les chercheurs du GDR RADIA sur la thématique de la causalité
- Fédérer les expertises autour de ces thématiques.
- Partager les connaissances et les meilleures pratiques.
- Identifier les défis de recherche ouverts et les opportunités d’innovation.
- Contribuer au développement de nouvelles méthodologies et outils.
- Promouvoir l’adoption de l’inférence causale et de l’explicabilité dans les applications de ML, en favorisant une IA plus responsable et compréhensible.
Axes (?)
- Apprentissage de Structure Causale : Exploration des méthodes avancées pour découvrir les graphes causaux à partir de données hétérogènes, dynamiques ou à haute dimension. Cela inclut l’intégration de connaissances expertes pour guider la découverte [Claassen & Heskes, 2012], la gestion de variables latentes et la détection de causalité dans des séries temporelles (e.g., la causalité de Granger [Granger, 1969] et ses extensions modernes).
- Calcul et Analyse des Impacts Causaux : Développement de techniques pour quantifier l’effet d’interventions spécifiques, permettant de prédire les conséquences de changements hypothétiques dans un système. Il s’agit d’aller au-delà de la prédiction pour comprendre le “quoi se passerait-il si…” (contrefactuels) [Pearl, 2000], en utilisant des techniques comme l’estimation de l’effet moyen du traitement (ATE) ou des méthodes basées sur le matching ou la pondération par la probabilité inverse.
- Explicabilité Causale : Liaison entre les méthodes d’inférence causale et les techniques d’explicabilité. Comment la connaissance des relations causales peut-elle améliorer l’interprétabilité des modèles de ML ? Comment peut-on expliquer une prédiction en termes de causes sous-jacentes plutôt que de simples corrélations ? Cela inclut le développement d’explications contrefactuelles causales [Wachter et al., 2017] qui identifient les plus petits changements causaux nécessaires pour altérer une prédiction de manière significative.
- Applications en Machine Learning : Application concrète de ces concepts dans divers scénarios de ML, tels que la personnalisation de recommandations (où les interventions causales sont clés pour suggérer des items qui causent la satisfaction), l’optimisation de politiques (e.g., en médecine personnalisée ou en politique publique), la détection de biais causaux et l’amélioration de la robustesse et de la généralisabilité des modèles face aux changements de distribution (distribution shift) [Peters et al., 2016].
Références
- Claassen, T., & Heskes, T. (2012). Causal discovery in the presence of latent confounders. Journal of Machine Learning Research, 13(1).
- Granger, C. W. J. (1969). Investigating causal relations by econometric models and cross-spectral methods. Econometrica, 37(3).
- Karimi, A. H., Schölkopf, B., & Valera, I. (2020). Towards Causal XAI: Explaining with Real Causes. arXiv preprint arXiv:2006.00947.
- Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems (NeurIPS).
- Pearl, J. (2000). Causality: Models, Reasoning and Inference. Cambridge University Press.
- Peters, J., Janzing, D., & Schölkopf, B. (2016). Elements of Causal Inference: Foundations and Learning Algorithms. MIT Press.
- Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.
- Rubin, D. B. (1974). Estimating causal effects of treatments in randomized and nonrandomized studies. Journal of Educational Psychology, 66(5).
- Shimizu, S., Hoyer, P. O., Hyvärinen, A., & Kerminen, A. J. (2006). A linear non-Gaussian acyclic model for causal discovery. Journal of Machine Learning Research, 7(Oct).
- Spirtes, P., Glymour, C., & Scheines, R. (2000). Causation, Prediction, and Search (2nd ed.). MIT Press.
- Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR. Harvard Journal of Law & Technology.