responsibly 

Communauté d’assistance GitHub Interprétabilité du modèle

Boîte à outils pour auditer et atténuer les biais et l’équité des systèmes d’apprentissage automatique.

Responsibly est développé pour les praticiens et les chercheurs, mais aussi pour les apprenants. Il est donc compatible avec les outils de science des données et de machine learning du commerce en Python, tels que Numpy, Pandas, et surtout scikit-learn.

L’objectif principal est d’être un guichet unique pour l’audit des biais et de l’équité des systèmes d’apprentissage automatique, et l’objectif secondaire est d’atténuer les biais et d’ajuster l’équité grâce à des interventions algorithmiques. En outre, un accent particulier est mis sur les modèles PNL.

Caractéristiques

Responsibly se compose de trois sous-packages :
responsibly.dataset

Collecte d’ensembles de données de référence communs issus de la recherche sur l’équité.
responsibly.fairness
Équité démographique dans la classification binaire, y compris les mesures et les interventions algorithmiques.
responsibly.we
Métriques et méthodes de débiaisation pour les préjugés (tels que le sexe et la race) dans l’intégration de mots.

Site officiel

 

Lien

Tutoriel et documentation

Enter your contact information to continue reading