PRENDRE RENDEZ-VOUS EN La boîte à outils AI Explainability 360, un projet d’incubation de la LF AI Foundation, est une bibliothèque open source qui prend en charge l’interprétabilité et l’explicabilité des ensembles de données et des modèles d’apprentissage automatique. Le package AI Explainability 360 Python comprend un ensemble complet d’algorithmes qui couvrent différentes dimensions d’explications …
MLOP Category Archives:
GEBI
PRENDRE RENDEZ-VOUS EN Explications globales pour l’identification des biais. Avec notre méthode proposée, nous avons identifié quatre clusters différents. Chaque cluster révèle des caractéristiques uniques dans l’apparence de l’ensemble de données analysées, liées au teint, aux lésions cutanées, mais également à la présence d’artefacts indésirables. Le premier et le deuxième groupe semblent regrouper les images …
FairML
PRENDRE RENDEZ-VOUS EN FairML est une boîte à outils Python vérifiant les biais des modèles d’apprentissage automatique. Caractéristiques Les modèles prédictifs sont de plus en plus déployés dans le but de déterminer l’accès à des services tels que le crédit, l’assurance et l’emploi. Malgré les gains sociétaux en termes d’efficacité et de productivité grâce au …
Fairlearn
PRENDRE RENDEZ-VOUS EN Fairlearn est un package Python qui permet aux développeurs de systèmes d’intelligence artificielle (IA) d’évaluer l’équité de leur système et d’atténuer tout problème d’injustice observé. Fairlearn contient des algorithmes d’atténuation ainsi que des mesures pour l’évaluation du modèle. Outre le code source, ce référentiel contient également des notebooks Jupyter avec des exemples …
FACETS
PRENDRE RENDEZ-VOUS EN Le projet Facets contient deux visualisations pour comprendre et analyser les ensembles de données d’apprentissage automatique : Facets Overview et Facets Dive. Les visualisations sont implémentées sous forme de composants Web Polymer, soutenues par du code Typescript et peuvent être facilement intégrées dans des blocs-notes ou des pages Web Jupyter. Des démonstrations …
ELI5
PRENDRE RENDEZ-VOUS EN ELI5 est une bibliothèque Python qui permet de visualiser et de déboguer divers modèles de Machine Learning à l’aide d’une API unifiée. Il prend en charge plusieurs frameworks ML et fournit un moyen d’expliquer les modèles de boîte noire. Caractéristiques ELI5 est un package Python qui permet de déboguer les classificateurs d’apprentissage …
DeepVis Toolbox
PRENDRE RENDEZ-VOUS EN Il s’agit du code requis pour exécuter la Deep Visualization Toolbox, ainsi que pour générer les visualisations neurone par neurone à l’aide d’une optimisation régularisée. La boîte à outils et les méthodes sont décrites de manière informelle ici et de manière plus formelle dans cet article : Jason Yosinski, Jeff Clune, Anh …
DeepLIFT –
PRENDRE RENDEZ-VOUS EN Cette version de DeepLIFT a été testée avec Keras 2.2.4 et tensorflow 1.14.0. Consultez cette question FAQ pour plus d’informations sur d’autres implémentations de DeepLIFT qui peuvent fonctionner avec différentes versions de tensorflow/pytorch, ainsi qu’avec un plus large éventail d’architectures. Voir les balises pour les anciennes versions. Ce référentiel implémente les méthodes …
ContrastiveExplanation (Foil Trees)
PRENDRE RENDEZ-VOUS EN L’explication contrastive fournit une explication de la raison pour laquelle une instance a obtenu le résultat actuel (fait) plutôt qu’un résultat ciblé d’intérêt (feuille). Ces explications contrefactuelles limitent l’explication aux caractéristiques pertinentes pour distinguer les faits des faits, ignorant ainsi les caractéristiques non pertinentes. L’idée des explications contrastées est capturée dans ce …
Captum
PRENDRE RENDEZ-VOUS EN Captum (« compréhension » en latin) est une bibliothèque open source et extensible pour l’interprétabilité des modèles construite sur PyTorch. Avec l’augmentation de la complexité des modèles et le manque de transparence qui en résulte, les méthodes d’interprétabilité des modèles sont devenues de plus en plus importantes. La compréhension des modèles est …