anchor 

GithubInterprétabilité du modèle

Une explication d’ancrage est une règle qui « ancre » suffisamment la prédiction localement, de sorte que les modifications apportées au reste des valeurs de caractéristiques de l’instance n’ont pas d’importance. Autrement dit, pour les instances sur lesquelles l’ancre tient, la prédiction est (presque) toujours la même.

Pour le moment, nous prenons en charge l’explication des prédictions individuelles pour les classificateurs de texte ou les classificateurs qui agissent sur des tableaux (tableaux numpy de données numériques ou catégorielles). S’il y a suffisamment d’intérêt, je peux inclure du code et des exemples d’images.

La méthode d’ancrage est capable d’expliquer n’importe quel classificateur de boîte noire, avec deux classes ou plus. Tout ce dont nous avons besoin, c’est que le classificateur implémente une fonction qui prend du texte brut ou un tableau numpy et génère une prédiction (entier)

Caractéristiques

* Par rapport à SHAP, le temps de calcul est inférieur.

* Dans mon précédent, j’utilise à la fois SHAP et Anchors pour expliquer la prédiction. Vous pouvez également envisager d’utiliser plusieurs interpréteurs de modèles.

* L’étiquette ne peut accepter que des nombres entiers. Cela signifie que vous ne pouvez pas transmettre le nom de classification exact mais la catégorie codée.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading