Skater

Communauté d’assistance GitHub Interprétabilité du modèle

Skater est un cadre unifié permettant l’interprétation de modèles pour toutes les formes de modèles afin d’aider à créer un système d’apprentissage automatique interprétable souvent nécessaire pour les cas d’utilisation du monde réel (** nous travaillons activement à permettre une interprétabilité fidèle pour tous les modèles de formes). Il s’agit d’une bibliothèque Python open source conçue pour démystifier les structures apprises d’un modèle de boîte noire à la fois globalement (inférence sur la base d’un ensemble de données complet) et localement (inférence sur une prédiction individuelle).

Le projet a été lancé comme une idée de recherche visant à trouver des moyens de permettre une meilleure interprétabilité (de préférence humaine) des « boîtes noires » prédictives, tant pour les chercheurs que pour les praticiens. Le projet est encore en phase bêta.

Caractéristiques

1. interprétation post hoc : étant donné un modèle de boîte noire formé pour résoudre un problème d’apprentissage supervisé (X -> Y, où X est l’entrée et Y est la sortie), l’interprétation post-hoc peut être considérée comme une fonction (f) ‘g’ avec des données d’entrée (D) et un modèle prédictif. La fonction « g » renvoie une représentation visuelle ou textuelle qui aide à comprendre le fonctionnement interne du modèle ou pourquoi un certain résultat est plus favorable qu’un autre. Cela pourrait également être appelé inspection de la boîte noire ou ingénierie inverse.

2. modèles interprétables nativement : face à un problème d’apprentissage supervisé, le modèle prédictif (fonction explicative) a une conception transparente et est interprétable à la fois globalement et localement sans aucune autre explication.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading