AA

Démos / Galerie

Cette page présente une sélection de démonstrations disponibles sur notre site web ou sur notre chaîne YouTube.


AudioAcoustique sur YouTube

Visitez notre site YouTube afin de voir tous les extraits.


Cantor Digitalis

Le Cantor Digitalis a remporté le premier prix de la 2015 Margaret Guthman Musical Instrument Competition. Vous pouvez visualiser les vidéos de la compétition ici:

Demi-finale

  • Aller à la performance du chorus Cantor Digitalis dans la vidéo complète de la Demi-Finale

Finale

  • JAller à la performance du chorus Cantor Digitalis dans la vidéo complète de la Finale

Directivité de la voix

Visualisation des changements de directivité de la voix humaine en train de chanter. Cette expérience s'est déroulée à l'IRCAM, en utilisant un réseau semi-circulaire de 24 microphones.

Cette vidéo a été créée pour illustrer l'article suivant:

  • B. Katz and C. d'Alessandro, "Directivity measurements of the singing voice," in 19th Intl. Cong. on Acoustics, (Madrid), pp. 1–6, 2007. Link to Proceedings
Des informations supplémentaires peuvent être trouvée sur: Merci à Robert Expert (www.robertexpert.net) d'avoir accepté de chanter pour nous!

Démonstrations binaurales

3D audio remix : Je ne sais pas", by LFDV

Il s'agit là d'une démonstration d'un remix audio 3D de la chanson "Je ne sais pas", de LFDV, produit par Tefa, Sony Music.

Ce remix binaural en 3D a été créé à l'aide du flux original multipiste.

Pour un rendu spatial de qualité, il est nécessaire d'écouter ce remix 3D binaural à l'aide d'un casque audio.

Démonstration audio 3D Re-mix de « Je Ne Sais Pas », de LFDV

  • Superviseur audio 3D : Brian FG Katz, CNRS
  • Ingénieur du son 3D : Marc Rébillat, CNRS
Merci à Sony Music
  • Producteur : Tefa
  • Ingénieur du son: Frédéric Nlandu
(Vous pouvez visualiser le clip original avec un mixage stéréo ici: YouTube)

"Station 508"

Cette fiction radio a été créée par des étudiants de l'École Louis-Lumière afin d'illustrer l'utilisation de l'audio 3D pour des fictions. Nous espérons que cet example pourra inspirer des artistes et leur donner envie d'utiliser cette nouvelle technologie afin de réaliser certaines des histoires les plus immersives de cette époque, à l'heure où de nombreuses personnes (malvoyantes ou non) sont équipées d'appareils mobiles et de casques pour écouter de la musique.

Site web du projet: Station 508


Exemple simple de synthèse binaurale

Cette vidéo présente un rendu binaural simple comparé à un rendu stéréo traditionnel d'une source se déplaçant autour de la tête. Un rendu visuel est inclus afin d'indiquer la position de la source. Le son se déplace autour de la tête en azimuth, puis en élévation. La perception de la position de la source est ensuite améliorée grâce à l'ajout d'un effet de salle.

Cette démonstration a été réalisée à l'aide d'algorithmes de rendu binaural développés en collaboration avec DMS et a été présentée à la 3D Media – Professional Conference, Liège, 2012.


Effet de l'individualisation des HRTFs

Cette vidéo illustre l'effet de l'utilisation de HRTFs non-individuelles différentes dans un rendu binaural. Utilisant parfois une simple source, parfois plusieurs sources statiques, la HRTF est changée.

Cette démonstration a été réalisé en collaboration avec Arkamys, dans le contexte de l'initiative "Listening with your own ears" pour l'individualisation des HRTFs et a été présentée à 3D Media – Professional Conference, Liège, 2012.


Aide à la navigation pour les malvoyants

Aide à la navigation pour les malvoyants

Vidéo de démonstration du concept du projet ANR-NAVIG.

(Veuillez noter que pour percevoir les sons 3D de cette vidéo, vous devez utiliser un casque stéréo et non des haut-parleurs)

NAVIG est un projet multidisciplinaire et innovant dont le but est d'augmenter l'autonomie des malvoyants dans leurs actions quotidiennes les plus problématiques: la navigation et la localisation d'objets. Cette vidéo présente les différents éléments des systèmes (vision artificielle, audio 3D créée à l'aide de synthèse binaurale, interface vocale, ...) et le prototype développé. Partenaires : IRIT, CerCo, LIMSI, SpikeNet, NavoCap, Insitute des Jeunes Aveugles, Toulose, and La Metropole de Toulouse.


Sonification scientifique et auralisation

Comparaison calibrée d'auralisation

Une comparaison d'auralisations entre des réponses impulsionnelles de salle (RIR en anglais) mesurées et des RIR simulées à l'aide d'un modèle géométrique calibré d'acoustique des salles.

Cette vidéo a été initialement présentée pour illustrer l'article suivant:

  • B.N. Postma & B.F.G. Katz, "Creation and Calibration Method of Acoustical Models for Historic Virtual Reality Auralizations", Virtual Reality Journal, (accepted 2015)
Cette étude a été financée en partie par le projet ECHO (ANR-13-CULT-0004).

Corsaire

Vidéo de démonstration de sonification scientifique dans le cadre du projet CoRSAIRe.
  • CoRSAIRe / BioInfo: VR and Multimodality for Protein Docking sur YouTube
  • CoRSAIRe / MecaFlu: VR and Multimodality for CFD sur YouTube

Le but du projet CoRSAIRe est de développer de nouvelles façons d'intéragir avec des mondes digitaux larges ou complexes. Le projet vise à améliorer significativement les interfaces existantes en introduisant des canaux sensori-moteurs, afin que l'utilisateur soit capable de voir, entendre et toucher les informations en elle-même (ou des objets dérivés des informations), redéfénissant ainsi entièrement les mécanismes d'intéraction habituels.

Mots clé: Réalité Virtuelle, supervision multimodale, haptique, audio 3D, bioinformatique, ergonomique


Audio 3D pour la téléprésence

Vidéo du protocol expérimental utilisé pour comparer l'utilisation de flux binauraux et ambisoniques pour la téléprésence, réalisée dans le cadre du projet SACARI.

(Veuillez noter que pour percevoir les sons 3D de cette vidéo, vous devez utiliser un casque stéréo et non des haut-parleurs)

Article associé:

  • B. Katz, A. Tarault, P. Bourdot, and J.-M. Vézien, “The use of 3d-audio in a multi-modal teleoperation platform for remote driving/supervision,” in AES 30th Intl. Conf. on Intelligent Audio Environments, (Saariselkä), pp. 1–9, 2007.

33 ans de synthèse de la parole à partir du texte

Une promenade sonore entre 1968 et 2001 présentant les travaux sur la synthèse de la parole à partir du texte, présentation accompagnée d'échantillnos sonores. Article paru dans le volume 42 - n°1/2001 de la revue Traitement Automatique des Langues (TAL, éditions Hermès), pages 297 à 321.

33 ans de synthèse de la parole à partir du texte

LIMSI
Campus universitaire bât 508
Rue John von Neumann
F - 91405 Orsay cedex
Tél +33 (0) 1 69 15 80 15
Email

RAPPORTS SCIENTIFIQUES

Le LIMSI en chiffres

10 équipes de recherche
100 chercheurs et enseignants-chercheurs
40 ingénieurs et techniciens
60 doctorants
70 stagiaires

 Université Paris-Sud nouvelle fenêtre

 

Paris-Saclay nouvelle fenêtre