On Knowledge Distillation for Direct Speech Translation

Fiche du document

Date

3 septembre 2021

Discipline
Périmètre
Langue
Identifiants
Collection

OpenEdition Books

Organisation

OpenEdition

Licences

https://www.openedition.org/12554 , info:eu-repo/semantics/openAccess




Citer ce document

Marco Gaido et al., « On Knowledge Distillation for Direct Speech Translation », Accademia University Press, ID : 10.4000/books.aaccademia.8585


Métriques


Partage / Export

Résumé En It

Direct speech translation (ST) has shown to be a complex task requiring knowledge transfer from its sub-tasks: automatic speech recognition (ASR) and machine translation (MT). For MT, one of the most promising techniques to transfer knowledge is knowledge distillation. In this paper, we compare the different solutions to distill knowledge in a sequence-to-sequence task like ST. Moreover, we analyze eventual drawbacks of this approach and how to alleviate them maintaining the benefits in terms of translation quality.

È stato dimostrato che la speech translation (ST) diretta è un’operazione complessa che richiede l’adozione di tecniche di knowledge transfer sia da automatic speech recognition (ASR) che da machine translation (MT). Per quanto riguarda MT, una delle tecniche più promettenti è la knowledge distillation (KD). In questo lavoro, confrontiamo diverse possibili soluzioni di KD per addestrare modelli sequence-to-sequence come quelli di ST. Inoltre, analizziamo eventuali problemi causati da questa tecnica e come attenuarli mantenendo i benefici in termini di qualità della traduzione.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en