Fairlearn

Communauté d’assistance GitHub Interprétabilité du modèle

Fairlearn est un package Python qui permet aux développeurs de systèmes d’intelligence artificielle (IA) d’évaluer l’équité de leur système et d’atténuer tout problème d’injustice observé. Fairlearn contient des algorithmes d’atténuation ainsi que des mesures pour l’évaluation du modèle. Outre le code source, ce référentiel contient également des notebooks Jupyter avec des exemples d’utilisation de Fairlearn.

Caractéristiques

L’allocation nuit. Ces préjudices peuvent survenir lorsque les systèmes d’IA étendent ou retiennent des opportunités, des ressources ou des informations. Certaines des applications clés concernent l’embauche, l’admission à l’école et les prêts.

Dommages à la qualité de service. La qualité du service fait référence au fait qu’un système fonctionne aussi bien pour une personne que pour une autre, même si aucune opportunité, ressource ou information n’est offerte ou refusée.

Site officiel

Tutoriel et documentation

Enter your contact information to continue reading