From text saliency to linguistic objects: learning linguistic interpretable markers with a multi-channels convolutional architecture

Fiche du document

Date

7 février 2023

Discipline
Type de document
Périmètre
Langue
Identifiant
Source

Corpus

Relations

Ce document est lié à :
info:eu-repo/semantics/reference/issn/1638-9808

Ce document est lié à :
info:eu-repo/semantics/reference/issn/1765-3126

Organisation

OpenEdition

Licences

All rights reserved , info:eu-repo/semantics/openAccess




Citer ce document

Laurent Vanni et al., « From text saliency to linguistic objects: learning linguistic interpretable markers with a multi-channels convolutional architecture », Corpus, ID : 10.4000/corpus.7667


Métriques


Partage / Export

Résumé En Fr

A lot of effort is currently made to provide methods to analyze and understand deep neural network impressive performances for tasks such as image or text classification. These methods are mainly based on visualizing the important input features taken into account by the network to build a decision. However these techniques, let us cite LIME, SHAP, Grad-CAM, or TDS, require extra effort to interpret the visualization with respect to expert knowledge. In this paper, we propose a novel approach to inspect the hidden layers of a fitted CNN in order to extract interpretable linguistic objects from texts exploiting classification process. In particular, we detail a weighted extension of the Text Deconvolution Saliency (wTDS) measure which can be used to highlight the relevant features used by the CNN to perform the classification task. We empirically demonstrate the efficiency of our approach on corpora from two different languages: English and French. On all datasets, wTDS automatically encodes complex linguistic objects based on co-occurrences and possibly on grammatical and syntax analysis.

De nombreux efforts sont actuellement déployés pour fournir des méthodes d'analyse et de compréhension des performances remarquables des réseaux neuronaux profonds pour des tâches telle que la classification d'images ou de textes. Ces méthodes sont principalement fondées sur la visualisation des imputs - ici, la matière textuelle - prises en compte par le réseau pour construire une décision. Cependant, ces techniques que l'on retrouve dans LIME, SHAP, Grad-CAM ou TDS, nécessitent un effort supplémentaire pour interpréter la visualisation. Dans cet article, nous proposons une nouvelle approche pour inspecter les couches cachées d'un réseau CNN ajusté afin d'extraire des objets linguistiques directement interprétables des textes. En particulier, nous détaillons une extension pondérée de la mesure Text Deconvolution Saliency (wTDS). Nous démontrons empiriquement l'efficacité de notre approche sur des corpus de deux langues différentes : anglais et français. Sur tous les jeux de données, wTDS encode automatiquement des objets linguistiques complexes ou motifs basés sur les co-occurrences et éventuellement sur l'analyse grammaticale et syntaxique.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en