6 mai 2024
info:eu-repo/semantics/OpenAccess
Matéo Fayet et al., « VIVO: Video Analysis for Corpus-based Audio--Visual Synthesis », HAL SHS (Sciences de l’Homme et de la Société), ID : 10670/1.222494...
La synthèse concaténative par corpus audio–visuelle étend le principe de synthèse concaténative sonore au domaine visuel, où en addition du corpus sonore (i.e une collection de segments de son enregistrés accompagnés d’une description perceptive de leurs caractéristiques), l’artiste utilise un corpus d’images statiques avec leurs caractéristiques visuelles perceptives (couleur, texture, détail, luminosité, entropie, mouvement), dans le but de créer une performance audio–visuelle musicale en navigant en temps réel dans ces espaces de descripteurs, i.e. à travers une collection de grains sonores dans un espace de descripteurs audio perceptifs, et à travers un espace de descripteurs visuels, i.e. en sélectionnant des images dans un corpus visuel pour le rendu, et en conséquence naviguer en parallèle au travers des deux corpus de manière interactive par contrôle gestuel tactile. Nous étendons ici ce principe à l’analyse de videos pour contstituer le corpus visuel, avec l’ajout de quelques descripteurs spécifiques. La question arts-sciences qui est ici explorée dans le cadre d’une création artistique est quels descripteurs visuels sont adaptés à une interaction multi-modale et comment les intégrer depuis l’analyse de données vidéos en temps-réel dans un système de synthèse sonore concaténative par corpus dans le but de créer une expérience audio– visuelle multi-modale incarnée.