The workshop will be composed of several presentations, from different members of the ADASP group and a guest, and moments of conviviality.
8:30 Welcome coffee 9:00 Introduction 9:10 Presentation: “Vue d’ensemble des paradigmes d’apprentissage de représentation pour l’audio“, Geoffroy Peeters 10:00 – 10:40 Presentations from ADASP PhD students 10:00 “Apprentissage de front-ends interprétables“, Félix Mathieu 10:20 “Apprentissage semi-supervisé pour la détection d’évènements sonores avec mean-teacher“, Florian Angulo et David Perera 10:40 “Apprentissage de représentations hiérarchiques pour l’analyse de structure musicale“, Morgan Buisson 11:00 Coffee break 11:15 Guest presentation: Rachid Riad, Training and research on mental abilities (Département d’études cognitives, ENS) Title: Similarités et différences entre les algorithmes d’apprentissage automatiques et le système auditif humain. Abstract [FR]: Bio : 12:30 Lunch [1A422]
Cet exposé décrira succinctement la tâche qui est incombée aux humains et aux machines pour faire sens des vibrations de l’air, le son. Nous mettrons d’abord l’accent sur comment le cerveau a déjà inspiré le design de modèles auditifs à la fois au niveau des premiers traitements du son, jusqu’aux différentes manières d’entrainer des modèles de réseaux profonds. Dans un deuxième temps, nous verrons ce que les modèles actuels de l’audition ne sont pas capables de faire, et les particularités du cerveau que l’on ne retrouve pas dans les modèles.
I want to understand the trajectories through the lifespan of human capabilities to understand the world and communicate with their peers. On the first hand, I seek to build the algorithms that measure humans’ behaviours in more naturalistic conditions. On the other hand, I also try to construct better machine learning and signal processing algorithms that match the performance of humans, inspired by findings from cognitive science and neuroscience.