From
Horaires à
Lieu Amphithéâtre du Bâtiment 660 de l'Université Paris-Saclay, situé au 660 Av des Sciences 91190 Gif-sur-Yvette
Composition du jury :
M. Frédéric Pichon, Professeur à l'Université d'Artois, Rapporteur
Mme Madalina Oltean, Professeure à l'Université Paris Dauphine PSLl, Rapportrice
M. David Picard, Professeur à l'ENPC, Examinateur
M. He Wang, Professeur associé à l'University College de London, Examinateur
Mme Pauline Trouvé-Peloux, Chargée de recherche à l'ONERA de Palaiseau, Examinatrice
Résumé :
Ce travail se concentre sur la quantification de l'incertitude pour les réseaux de neurones profonds, qui est vitale pour la fiabilité et la précision de l'apprentissage profond. Cependant, la conception complexe du réseau et les données d'entrée limitées rendent difficile l'estimation des incertitudes. Parallèlement, la quantification de l'incertitude pour les tâches de régression a reçu moins d'attention que pour celles de classification en raison de la sortie standardisée plus simple de ces dernières et de leur grande importance. Cependant, des problèmes de régression sont rencontrés dans un large éventail d'applications en vision par ordinateur. Notre principal axe de recherche porte sur les méthodes post-hoc, et notamment les réseaux auxiliaires, qui constituent l'un des moyens les plus efficaces pour estimer l'incertitude des prédictions des tâches principales sans modifier le modèle de la tâche principale. Dans le même temps, le scénario d'application se concentre principalement sur les tâches de régression visuelle. En outre, nous fournissons également une méthode de quantification de l'incertitude basée sur le modèle modifié de tâche principale et un ensemble de données permettant d'évaluer la qualité et la robustesse des estimations de l'incertitude. Nous proposons d'abord Side Learning Uncertainty for Regression Problems (SLURP), une approche générique pour l'estimation de l'incertitude de régression via un réseau auxiliaire qui exploite la sortie et les représentations intermédiaires générées par le modèle pour la tâche principale. Le réseau auxiliaire apprend l'erreur de prédiction du modèle pour la tâche principale et peut fournir des estimations d'incertitude comparables à celles des approches des ensembles pour différentes tâches de régression par pixel. Pour être considéré comme robuste, un estimateur d'incertitude auxiliaire doit être capable de maintenir ses performances et de déclencher des incertitudes plus élevées tout en rencontrant des entrées des examples Out-Of-Distribution (OOD), c'est-à-dire de fournir une incertitude aléatoire et épistémique robuste. Nous considérons que SLURP est principalement adapté aux estimations de l'incertitude aléatoires. De plus, la robustesse des estimateurs auxiliaires d'incertitude n'a pas été explorée. Notre deuxième travail propose un schéma d'estimateur d'incertitude auxiliaire généralisé, introduisant la distribution de Laplace pour l'estimation aléatoire robuste de l'incertitude et le Discretization-Induced Dirichlet pOsterior (DIDO) pour l'incertitude épistémique. Des expériences approfondies confirment la robustesse dans diverses tâches. De plus, pour présenter DIDO, nous présentons un article d'évaluation des solutions qui appliquent des stratégies de discrétisation aux tâches de régression, développant une solution de quantification d'incertitude post-hoc, baptisée Expectation of Distance (E-Dist), qui surpasse les autres solutions post-hoc dans les mêmes conditions.De plus, nous étudions les méthodes de quantification de l'incertitude en un seul passage basées sur le modèle de tâche principale ajusté. Nous proposons Latent Discreminant deterministic Uncertainty (LDU), qui fait progresser l'estimation déterministe de l'incertitude évolutive et rivalise avec les Deep Ensembles sur les tâches d'estimation de profondeur monoculaire.En termes d'évaluation de la quantification de l'incertitude, nous proposons un ensemble de données Multiple Uncertainty Autonomous Driving (MUAD), prenant en charge diverses tâches de vision par ordinateur dans différents scénarios urbains avec des différents exemples OOD difficiles. En résumé, nous proposons de nouvelles solutions et références pour la quantification de l'incertitude de l'apprentissage profond, notamment SLURP, E-Dist, DIDO et LDU. De plus, nous proposons l'ensemble de données MUAD pour fournir une évaluation plus complète des scénarios de conduite autonome avec différentes sources d'incertitude.
Cette soutenance sera suivie par un moment de convivialité auquel vous êtes chaleureusement conviés.