Équité, explicabilité, paradoxes et biais

Fiche du document

Date

7 décembre 2023

Type de document
Périmètre
Langue
Identifiant
Relations

Ce document est lié à :
info:eu-repo/semantics/reference/issn/2269-0271

Organisation

OpenEdition

Licences

https://creativecommons.org/licenses/by-nc/4.0/ , info:eu-repo/semantics/openAccess




Citer ce document

Gilbert Saporta, « Équité, explicabilité, paradoxes et biais », Statistique et société, ID : 10670/1.fpr8eo


Métriques


Partage / Export

Résumé Fr En

L’équité ou fairness des algorithmes suscite une abondante littérature. Sur un plan qualitatif, on examinera les liens entre équité, explicabilité et interprétabilité. On peut penser qu’il vaut mieux comprendre le fonctionnement d’un algorithme pour savoir s’il est équitable, mais en fait il n’en est rien car la transparence ou l’explicabilité sont relatives à l’algorithme alors que l’équité concerne son application différenciée à des groupes d’individus. Suivant Rudin (2019), on distinguera l’interprétabilité, qui est liée à la simplicité, de l’explicabilité qui est en général post-hoc avec des approches globales ou locales, agnostiques ou spécifiques, utilisant souvent des modèles de substitution (Molnar, 2021).La diversité des mesures d’équité ne simplifie pas son appréhension : Verma et Rubin (2018) en ont dénombré plus de vingt qui conduisent d’ailleurs à des incompatibilités comme l’illustre la controverse sur laquelle nous reviendrons concernant l’application « COMPAS » de prédiction de la récidive. Les « biais » des algorithmes ne sont souvent que la reproduction de ceux des décisions antérieures que l’on retrouve dans les données d’apprentissage. Mais ce ne sont pas les seuls. On tentera de dresser une typologie des principaux biais : statistiques, sociétaux, cognitifs, etc.

The fairness of algorithms is the subject of an abundant literature. On a qualitative level, we will examine the links between fairness, explainability, and interpretability. One may think that it is better to understand the functioning of an algorithm to know if it is fair, but in fact this is not the case because transparency or explicability are relative to the algorithm whereas fairness concerns its differentiated application to groups of individuals. Following Rudin (2019), we distinguish interpretability, which is related to simplicity, from explainability, which is generally post-hoc with global or local, agnostic or specific approaches, often using surrogate models (Molnar, 2021).The diversity of fairness measures does not simplify its apprehension: Verma and Rubin (2018) have counted more than twenty of them, which moreover lead to incompatibilities as illustrated by the controversy to which we will return concerning the « COMPAS » recidivism prediction application. The "biases" of the algorithms are often simply the reproduction of those of previous decisions found in the training data. But they are not the only ones. We will try to draw up a typology of the main biases: statistical, societal, cognitive, etc.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Exporter en