L’atelier sera composé de plusieurs interventions, de différents membres du groupe ADASP et d’un invité, et de moments de convivialité.

 

Programme

8:30    Accueil, café

9:00    Introduction

9:10    Présentation : « Vue d’ensemble des paradigmes d’apprentissage de représentation pour l’audio », Geoffroy Peeters

10:00 – 10:40 Présentations de doctorants ADASP

10:00    « Apprentissage de front-ends interprétables », Félix Mathieu

10:20    « Apprentissage semi-supervisé pour la détection d’évènements sonores avec mean-teacher », Florian Angulo et David Perera

10:40    « Apprentissage de représentations hiérarchiques pour l’analyse de structure musicale », Morgan Buisson

11:00    Pause café

11:15    Présentation invitée : Rachid Riad, Département d’études cognitives (ENS)

Titre : Similarités et différences entre les algorithmes d’apprentissage automatiques et le système auditif humain.

Résumé :
Cet exposé décrira succinctement la tâche qui est incombée aux humains et aux machines pour faire sens des vibrations de l’air, le son. Nous mettrons d’abord l’accent sur comment le cerveau a déjà inspiré le design de modèles auditifs à la fois au niveau des premiers traitements du son, jusqu’aux différentes manières d’entrainer des modèles de réseaux profonds. Dans un deuxième temps, nous verrons ce que les modèles actuels de l’audition ne sont pas capables de faire, et les particularités du cerveau que l’on ne retrouve pas dans les modèles.

Bio :
I want to understand the trajectories through the lifespan of human capabilities to understand the world and communicate with their peers. On the first hand, I seek to build the algorithms that measure humans’ behaviours in more naturalistic conditions. On the other hand, I also try to construct better machine learning and signal processing algorithms that match the performance of humans, inspired by findings from cognitive science and neuroscience.

12:30    Déjeuner  [1A422]