Discrimination et biais genrés: Les lacunes juridiques de l’audit algorithmique

Fiche du document

Date

2019

Discipline
Type de document
Périmètre
Langue
Identifiants
Collection

Archives ouvertes




Citer ce document

Julie Charpenet et al., « Discrimination et biais genrés: Les lacunes juridiques de l’audit algorithmique », HAL-SHS : droit et gestion, ID : 10670/1.l3lkx4


Métriques


Partage / Export

Résumé Fr

L'existence de biais « genrés » dans les processus décisionnels algorithmiques a été identifiée et dénoncée à l'occasion de diverses affaires et études récentes, touchant aussi bien la sphère publique que privée, l'administration comme les entreprises. Ces biais constituent autant d'atteintes au droit de la non-discrimination et soulèvent des difficultés dans la mise en œuvre du régime de responsabilité. Si, au moment de l’écriture à quatre mains de cet article, le cadre juridique national et européen apparaissait peu propice à la mise en œuvre des audits algorithmiques, pourtant indispensable à la protection des libertés fondamentales, il est aujourd’hui une mesure phare du projet de règlement européen sur l’intelligence artificielle dit IA Act.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en