L’explicabilité, c’est quoi ?

Pour tout Data Scientist travaillant sur un cas d’usage métier, il devient crucial de pouvoir expliquer ses modèles de Machine Learning aboutissant à une décision afin de convaincre les équipes métiers de la pertinence du modèle et de pouvoir éventuellement utiliser ce modèle comme une aide à la décision pour ce métier.

Motivations

Le Data Scientist est souvent pris dans un dilemme entre construire un modèle simple (comme une régression logistique) qu’il va pouvoir expliquer simplement mais dont l’exactitude n’est pas toujours satisfaisante et un modèle plus complexe (comme à base d’ensemble ou de Deep Learning) qui sera performant mais difficilement explicable.

Il existe aujourd’hui différentes méthodes et outils d’explicabilité qui permettent aux Data Scientists de profiter des dernières techniques de Machine Learning tout en étant capable d’expliquer leurs modèles et permettant ainsi aux experts métiers d’y accorder de la confiance.

Concepts

Les différents outils et articles dans le domaine de l’explicabilité utilisent des concepts définis de manière disparate au travers des différents travaux. 

Récemment, l’article « Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI » a proposé une synthèse autour des concepts suivants :

Interprétabilité

L’interprétabilité définit le fait de rendre compréhensible le fonctionnement des modèles auprès d’êtres humains sans que cela ne nécessite un pré-requis (technique) particulier autour de la Data Science.

Explicabilité

L’explicabilité définit le fait de pouvoir expliquer d’un point de vue plus technique à un humain les prédictions résultant d’un modèle.

Transparence

Un modèle est considéré comme transparent s’il est compréhensible par lui-même à partir d’explications simples.

Les principaux types de modèles de classifications dits “transparents” sont :

Les régressions logistiques : il s’agit d’un type de modèles permettant de prédire une (ou plusieurs) catégorie cible sur la base d’une combinaison de variables en entrée. A la condition que le nombre de variables soit raisonnable et que les variables soient compréhensibles, il est possible de décrire et même de représenter graphiquement le fonctionnement de ces modèles les rendant ainsi facilement utilisables et compréhensibles.

Les arbres de décisions : les arbres de décisions sont des modèles reposant sur des enchaînements de nœuds correspondant à des conditions binaires sur plusieurs niveaux hiérarchiques aboutissant à une feuille correspondant au résultat de la prédiction. A condition d’utiliser un nombre raisonnable de variables et de nœuds, il est possible de représenter et d’expliquer les différentes étapes résultant à la décision de ce modèle.

Les K plus proches voisins : l’algorithme des K proches voisins permet de prédire la classe d’un élément en entrée en examinant la classe de ses K plus proches voisins connus. Par exemple pour K=5, la classe prédite pour un nouvel élément sera la classe majoritaire parmi les classes des 5 plus proches voisins de cet élément. 

Ces modèles transparents sont donc des modèles simples qui sont facilement explicables et donc couramment utilisés en pratique mais ne fournissent pas toujours des décisions exactes.

La figure suivante, issue de l’article “Principles and Practice of Explainable Machine Learning”, fournie également des exemples des principaux modèles transparents : 

This image has an empty alt attribute; its file name is qHOidBit1PDreQL09V4HVkv0v6hkiOiDFLM0V73df047KzXK73rKIwXcGSQVZAoHLJcn89wNkKAAnPq4QaYuTuY-zrnMWZORJrbNT3RmrXs7B4OsPvDO764LTGQHB1C-ymDQt9uifuw_rkxaHw

D’un autre côté, l’interprétabilité et l’explicabilité permettent de rendre compréhensible les modèles plus complexes (c’est à dire non transparents) et donc d’obtenir des modèles plus performants. 

Principales approches et méthodes d’explicabilité

Approche globale

Une première famille de méthodes vise à fournir une explication globale du fonctionnement du modèle indépendamment des données en entrée. Parmi les méthodes les plus connues, on peut citer la “Features Importance” ou le “Partial Depency Plot” qui sont régulièrement utilisées en première approche mais ne fournissent qu’une explicabilité limitée du modèle.

Approche locale

Par opposition, les approches locales fournissent une explication précise associée à un élément particulier à prédire. Les 2 méthodes locales actuellement les plus utilisées sont “LIME” et “SHAP” (apparues respectivement en 2016 et 2017) et fournissent une explication en indiquant les variables ayant le plus contribué à la prédiction pour cet élément.

La figure suivante présente un exemple d’explication fournie grâce à SHAP pour expliquer la probabilité de survie d’un passager du Titanic en fonction de ses caractéristiques. La probabilité de l’individu (ici de 0.81) s’explique principalement par le fait qu’elle soit de sexe féminin (sex_male=0) et ne voyage pas en troisième classe (pclass_3=0). 

This image has an empty alt attribute; its file name is jT2-3nRhqwmopjho7YIDvgvl_moXlcx1uo5IKAwlGUAUZuZzcUMLyz6kuaxgWXVxn1tk69iL-exSU0OPJJxbVKbchJgxB5WfJHOEdt-GY0t6vLAYFxG219qSRHOO5S__ohaoIAodyzGjiGGURQ

Pour aller plus loin

Nous avons vu les principaux concepts autour de l’explicabilité du Machine Learning.

Pour aller plus loin, vous pouvez consulter les éléments suivants :

“Principles and Practice of Explainable Machine Learning” est un article proposant un large panorama des méthodes d’explicabilité ainsi que des recommandations sur les méthodes les plus utiles dans différents cas d’usages.

SHAP : L’implémentation de la méthode SHAP est disponible sur Github et propose une API assez facile d’utilisation.

Référence

[ExplainableConcepts] : “Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI”; Arrietaa et al. https://arxiv.org/pdf/1910.10045.pdf