ContrastiveExplanation (Foil Trees) 

Communauté d’assistance GitHub Interprétabilité du modèle

L’explication contrastive fournit une explication de la raison pour laquelle une instance a obtenu le résultat actuel (fait) plutôt qu’un résultat ciblé d’intérêt (feuille). Ces explications contrefactuelles limitent l’explication aux caractéristiques pertinentes pour distinguer les faits des faits, ignorant ainsi les caractéristiques non pertinentes. L’idée des explications contrastées est capturée dans ce package Python ContrastiveExplanation.

Caractéristiques

Initialisation : L’optimiseur est défini dans TensorFlow (TF) en interne. Nous chargeons d’abord notre classificateur MNIST et l’auto-encodeur (facultatif). L’exemple ci-dessous utilise des modèles Keras ou TF.

Explication : Nous pouvons enfin expliquer l’instance :

explication = cem.explain(X)

La méthode explicative renvoie un objet Explanation avec les attributs suivants :

X : instance d’origine

X_pred : classe prédite de l’instance d’origine

PN ou PP : Pertinent Négatif ou Pertinant Positif

PN_pred ou PP_pred : classe prédite de PN ou PP

Dégradés numériques : jusqu’à présent, l’ensemble du problème d’optimisation pouvait être défini dans le graphe TF interne, ce qui rendait la comparaison automatique possible. Il est cependant possible que nous n’ayons pas accès à l’architecture et aux poids du modèle, et que nous disposions uniquement d’une fonction de prédiction renvoyant des probabilités pour chaque classe.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading