Soutenance de thèse de Agathe ARCHET
Ajouter au calendrierComposition du jury :
M. Smail NIAR de l'INSA - Université Polytechnique des Hauts-de-France, Rapporteur
M. Frédéric PÉTROT de l'Université de Grenoble Alpes, Rapporteur
Mme Lìrida NAVINER DE BARROS, de Télécom Paris - IP Paris, Examinatrice
M. Mathieu LEONARDON, de l'IMT Atlantique, Examinateur
M. Olivier BICHLER, du CEA de Saclay, Examinateur
Mots clés :
Réseaux neuronaux (informatique), Systèmes embarqués (informatique), Apprentissage automatique, Apprentissage profond, Algorithmes génétiques, Métaheuristiques
Résumé :
Pour répondre aux besoins de performance algorithmique et d’efficacité énergétique des applications industrielles embarquées, l’intelligence artificielle (IA) nécessite l’utilisation d’accélérateurs matériels de plus en plus complexes et hétérogènes. En parallèle, les algorithmes à base de réseaux de neurones profonds deviennent eux aussi plus évolués et demandent un processus de conception complexe pour obtenir de meilleures performances applicatives. De fait, implémenter une application d’IA optimisée (1) nécessite des efforts de conception toujours plus importants, et (2) rend de plus en plus difficile l’obtention d’une implémentation exploitant efficacement l’ensemble des propriétés de l’architecture matérielle. Pour réduire l’effort de conception, des outils sont apparus permettant d’optimiser automatiquement le processus de conception et d’optimisation sur accélérateurs embarqués, par exemple les méthodes de recherche automatisée de l’architecture des réseaux de neurones pour l’embarqué ou méthodes Hardware-Aware Neural Architecture Search (HW-NAS). Néanmoins, en dehors de l’application de classification d’images, ces méthodes automatisées s’avèrent inefficaces sur certaines applications de traitement d’images à prédictions denses à cause de la nature et de la grande cardinalité de l’espace des combinaisons possibles. Pour améliorer la convergence de ces méthodes, cette thèse se focalise dans un premier temps sur l’accélération des évaluations algorithmiques et matérielles des solutions explorées. En se basant sur les caractéristiques des SoC hétérogènes Jetson Orin de Nvidia et de son flot de déploiement TensorRT, nous proposons une stratégie d’accélération des évaluations matérielles liées à l’inférence (latence, puissance électrique) sans dégrader l’exploration des solutions. Le flot HW-NAS alors obtenu est capable d’obtenir des architectures neuronales pour la segmentation sémantique d’images aériennes 80% plus rapides ou 50% moins gourmandes en énergie que le réseau contemporain manuel BiseNetV2, à performances algorithmiques équivalentes, le tout dans un temps raisonnable (< 4 jours). De plus, il est 33% plus rapide que dans sa configuration initiale. Dans un deuxième temps, afin de mieux adapter les solutions neuronales aux contraintes d’embarquabilité, cette thèse propose un flot HW-NAS modifié pour une application d’apprentissage incrémental, afin qu’il puisse gérer conjointement les contraintes de performances algorithmiques et les contraintes de taille mémoire. Ce nouveau flot HW-NAS constitue actuellement la toute première implémentation HW-NAS multicritère pour cette application.