« Mais l’algo, là, il va mimer nos erreurs ! » : Contraintes et effets de l’annotation des données d’entraînement d’une IA

Fiche du document

Date

2023

Discipline
Type de document
Périmètre
Langue
Identifiant
Source

Réseaux

Collection

Cairn.info

Organisation

Cairn

Licence

Cairn




Citer ce document

Camille Girard-Chanudet, « « Mais l’algo, là, il va mimer nos erreurs ! » : Contraintes et effets de l’annotation des données d’entraînement d’une IA », Réseaux, ID : 10670/1.buks7z


Métriques


Partage / Export

Résumé Fr En

Les techniques d’apprentissage automatique traitent algorithmiquement des données fournies en entrée. Celles-ci font, au préalable, l’objet d’un travail d’annotation manuelle visant à en identifier les éléments saillants à des fins d’entraînement des modèles. Fastidieux et souvent déconsidéré, ce travail du clic façonne pourtant une « vérité » de référence pour l’IA, qui conditionne en grande partie les résultats produits. Cet article étudie les modalités d’exécution de ce travail et ses effets à partir de l’étude du cas de la conception d’un outil d’anonymisation automatique des décisions de justice au sein de la Cour de cassation. Enquête ethnographique et par entretiens permettent de mettre en évidence la pluralité des compétences mobilisées par les acteurs chargés de l’annotation des données. L’article montre l’importance des systèmes représentationnels et moraux dans la mise en œuvre de cette activité, et donc, pour le fonctionnement de l’IA.

Machine learning techniques algorithmically process input data which are then manually annotated to identify their salient features for model training purposes. This click work, while tedious and often unacknowledged, actually shapes a reference ‘truth’ for the AI, which in turn largely determines the results. This article examines the ways in which this work is carried out and its effects, based on a case study of the design of a tool for the automatic anonymization of court decisions at the Cour de Cassation (French Supreme Court). An ethnographic and interview survey highlights the plurality of skills implemented by the agents in charge of data annotation. The article shows the importance of representational and moral systems in the implementation of this activity, and therefore for the functioning of AI.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en