L’atelier sera composé de plusieurs interventions, de différents membres du groupe ADASP et d’un invité, et de moments de convivialité.
8:30 Accueil, café 9:00 Introduction 9:10 Présentation : « Vue d’ensemble des paradigmes d’apprentissage de représentation pour l’audio », Geoffroy Peeters 10:00 – 10:40 Présentations de doctorants ADASP 10:00 « Apprentissage de front-ends interprétables », Félix Mathieu 10:20 « Apprentissage semi-supervisé pour la détection d’évènements sonores avec mean-teacher », Florian Angulo et David Perera 10:40 « Apprentissage de représentations hiérarchiques pour l’analyse de structure musicale », Morgan Buisson 11:00 Pause café 11:15 Présentation invitée : Rachid Riad, Département d’études cognitives (ENS) Titre : Similarités et différences entre les algorithmes d’apprentissage automatiques et le système auditif humain. Résumé : Bio : 12:30 Déjeuner [1A422]
Cet exposé décrira succinctement la tâche qui est incombée aux humains et aux machines pour faire sens des vibrations de l’air, le son. Nous mettrons d’abord l’accent sur comment le cerveau a déjà inspiré le design de modèles auditifs à la fois au niveau des premiers traitements du son, jusqu’aux différentes manières d’entrainer des modèles de réseaux profonds. Dans un deuxième temps, nous verrons ce que les modèles actuels de l’audition ne sont pas capables de faire, et les particularités du cerveau que l’on ne retrouve pas dans les modèles.
I want to understand the trajectories through the lifespan of human capabilities to understand the world and communicate with their peers. On the first hand, I seek to build the algorithms that measure humans’ behaviours in more naturalistic conditions. On the other hand, I also try to construct better machine learning and signal processing algorithms that match the performance of humans, inspired by findings from cognitive science and neuroscience.