iNNvestigate 

Communauté d’assistance GitHub Interprétabilité du modèle

Ces dernières années, les réseaux de neurones ont fait progresser l’état de l’art dans de nombreux domaines comme par exemple la détection d’objets et la reconnaissance vocale. Malgré leur succès, les réseaux de neurones sont généralement traités comme des boîtes noires. Leurs fonctionnements internes ne sont pas entièrement compris et la base de leurs prédictions n’est pas claire. Pour tenter de mieux comprendre les réseaux de neurones, plusieurs méthodes ont été proposées, par exemple Saliency, Deconvnet, GuidedBackprop, SmoothGrad, IntergratedGradients, LRP, PatternNet&-Attribution. En raison du manque d’implémentations de référence, les comparer constitue un effort majeur. Cette bibliothèque résout ce problème en fournissant une interface commune et une implémentation prête à l’emploi pour de nombreuses méthodes d’analyse. Notre objectif est de faciliter l’analyse des prédictions des réseaux de neurones !

Caractéristiques

fonction:

gradient : Le gradient du neurone de sortie par rapport à l’entrée.

smoothgrad : SmoothGrad fait la moyenne du dégradé sur le nombre d’entrées avec du bruit ajouté.

signal:

deconvnet : DeConvNet applique un ReLU dans le calcul du gradient au lieu du gradient d’un ReLU.

guidé : Guided BackProp applique un ReLU dans le calcul du gradient en plus du gradient d’un ReLU.

pattern.net : PatternNet estime le signal d’entrée du neurone de sortie.

attribution:

input_t_gradient : Entrée * Dégradé

deep_taylor[.bounded] : DeepTaylor calcule pour chaque neurone un point racine, proche de l’entrée, mais dont la valeur de sortie est 0, et utilise cette différence pour estimer l’attribution de chaque neurone de manière récursive.

pattern.attribution : PatternAttribution applique Deep Taylor en recherchant des points racines dans la direction du signal de chaque neurone.

lrp.* : LRP attribue récursivement à l’entrée de chaque neurone une pertinence proportionnelle à sa contribution à la sortie du neurone.

Integrated_gradients : IntegratedGradients intègre le dégradé le long d’un chemin depuis l’entrée vers une référence.

divers:

input : renvoie l’entrée.

random : renvoie un bruit gaussien aléatoire.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading