info:eu-repo/semantics/OpenAccess
Brigitte Bigi, « Projet AutoCuedSpeech, Livrable WP3 - L1 : Système prédictif des moments de transition de positions », HAL SHS (Sciences de l’Homme et de la Société), ID : 10670/1.eaa6d9...
Ce livrable fait parti du projet "Voir les sons avec du Cued Speech Automatisé : la réalité augmentée au service des personnes sourdes" financé par la FIRAH. Il fait parti des résultats du Work Package 3 : "Synchronisation main/son (QUAND ?)".Il décrit la deuxième étape du système prédictif qui consiste à déterminer les moments de transitions à partir de la séquence des clés qui ont été définies à partie des phonèmes prononcés. Ce document s'attache à la prédiction des transitions des positions de la main, les transitions de formes ne faisant pas l'objet de ce projet.