Manual annotation of occurrences of terms candidates in scientific papers Annotation manuelle d'occurrences de candidats termes et écrit scientifique En Fr

Fiche du document

Date

9 décembre 2021

Discipline
Type de document
Périmètre
Langue
Identifiants
Collection

Archives ouvertes

Licence

info:eu-repo/semantics/OpenAccess




Citer ce document

Evelyne Jacquey et al., « Annotation manuelle d'occurrences de candidats termes et écrit scientifique », HAL-SHS : linguistique, ID : 10670/1.0bjmvc


Métriques


Partage / Export

Résumé En Fr

This paper compares two successive annotation campaigns aimed at manually identifying the occurrences of candidate terms that actually fall within the scientific domain of the annotated document. The two campaigns are distinguished by their objectives. The first aimed the enrichment of existing terminological resources. The second had the dual objective of comparing several annotation tools (BRAT, GATE, GLOZZ) and measuring the difficulty of the annotation task in the human and social sciences compared to the so-called hard sciences. A direct comparison between both campaigns is not possible on the basis of the produced corpora. To do this, we use these corpora like learning corpus in the context of a test task. The role of this task is to automatise the manual annotation. The goal is to determine if the second corpus is of better quality than the first one with regards to the test task performances.

Cet article compare deux campagnes d'annotation successives visant l'identification manuelle des occurrences de candidats termes qui relèvent effectivement de la discipline scien-tifique de l'article considéré. Les deux campagnes se distinguent par leurs objectifs. La pre-mière visait l'enrichissement de terminologies existantes. La seconde avait le double objectif de comparer plusieurs environnements d'annotation (BRAT, GATE, GLOZZ), et de mesurer la dif-ficulté de la tâche d'annotation en sciences humaines et sociales par rapport aux sciences dites exactes. Les corpus produits ne permettant pas de comparer les deux campagnes directement, nous exploitons ces corpus comme corpus d'apprentissage dans une tâche test qui consiste à automatiser l'annotation manuelle. L'objectif est de savoir si le corpus de la seconde cam-pagne permet d'augmenter les performances de la tâche test par rapport à celui de la première campagne.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en