Guider l'attention dans les modèles de séquence à séquence pour la prédiction des actes de dialogue

Fiche du document

Date

3 juin 2020

Type de document
Périmètre
Langue
Identifiants
Collection

Archives ouvertes

Licence

info:eu-repo/semantics/OpenAccess




Citer ce document

Emile Chapuis et al., « Guider l'attention dans les modèles de séquence à séquence pour la prédiction des actes de dialogue », HAL-SHS : sociologie, ID : 10670/1.wltuj4


Métriques


Partage / Export

Résumé Fr

La prédiction d’actes de dialogue (AD) basés sur le dialogue conversationnel est un élément clé dans le développement des agents conversationnels. La prédiction précise des AD nécessite une modélisation précise à la fois de la conversation et des dépendances globales des AD. Nous utilisons les approches de séquence à séquence (seq2seq) largement adoptées dans la traduction automatique neurale (NMT) pour améliorer la modélisation de la séquentialité des AD. Les modèles seq2seq sont connus pour apprendre les dépendances globales complexes alors que les approches actuellement proposées utilisant des champs aléatoires conditionnels linéaires (CRF) ne modélisent que les dépendances locales des AD. Dans ce travail, nous introduisons un modèle seq2seq adapté à la classification AD en utilisant : un codeur hiérarchique, un nouveau mécanisme attention guidée et la recherche de faisceau appliquée à la fois à l’apprentissage et à l’inférence. Par rapport à l’état de l’art, notre modèle ne nécessite pas de caractéristiques artisanales et est formé de bout en bout. En outre, l’approche proposée obtient un score de précision inégalé de 85% pour la SwDA et un score de précision de pointe de 91,6% pour la MRDA.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Exporter en