Ordonnancement de plusieurs réseaux de neurones de traitement d’image déployés sur une carte NVIDIA GPU.
Réf ABG-126835
Stage master 2 / Ingénieur
Durée 6 mois
Salaire net mensuel: Gratification légale
Date de publication: 12/11/2024
Lieu de travail: Noisy le grand, Ile-de-France, France
Champs scientifiques:
* Informatique
* Robotique
* Télécommunications
Mots clés: DNN, CNN, GPU, Cuda, traitement d’image.
Date limite de candidature: 15/12/2024
Établissement recruteur
Site web:
http://https://pagespro.univ-gustave-eiffel.fr/mourad-dridi
Laboratoire d’accueil: LIGM (UMR 8049 CNRS), équipe LRT
Encadrements: Mourad DRIDI, Yasmina ABDEDDAÏM
Contact: mourad.dridi@esiee.fr; yasmina.abdeddaim@esiee.fr
Description
CONTEXTE et PROBLÉMATIQUE
De plus en plus d’applications temps réel ont besoin d’utiliser des fonctionnalités d’Intelligence Artificielle (IA). Comme exemple, les véhicules autonomes peuvent utiliser des réseaux de neurones afin de détecter des objets physiques et les marquages au sol en analysant les images produites par plusieurs caméras embarquées dans le véhicule.
Le déploiement des applications temps réel utilisant des fonctionnalités d’Intelligence Artificielle (IA) (lors de la phase d’inférence) sur la plate-forme d’exécution nécessite une puissance de calcul élevée, qui ne peut être satisfaite aujourd'hui que par des plateformes hétérogènes combinant CPUs et accélérateurs (GPU). Une architecture de calcul hétérogène distribue les données, le traitement et l’exécution des programmes entre les différentes unités de calcul qui sont les mieux adaptées aux tâches spécifiques.
Le besoin de comprendre le lien entre la qualité des images d'entrée et le temps d'exécution de la partie inférence est crucial. Différents contextes (jour, nuit, éclairage, résolution du capteur, type de caméra) peuvent entraîner des variations significatives dans le temps d'exécution des réseaux neurones. Dans un environnement temps réel, où plusieurs réseaux DNN sont exécutés sur la même carte, il est impératif de tenir compte de cette variation dans l'ordonnancement des différentes tâches du système.
OBJECTIFS
Ce projet a pour objectif d’explorer la corrélation entre la qualité des images d'entrée, la taille du bloc et le temps d'exécution des réseaux de neurones, en se concentrant particulièrement sur les architectures GPU de NVIDIA.
Dans ce contexte, l’élève sera chargé de mener des expérimentations visant à déployer plusieurs DNN sur une seule carte, à quantifier le temps d'exécution de la phase d'inférence pour diverses catégories d'images et différents réseaux de neurones, notamment YOLO et ResNet. Ensuite, il développera un framework permettant de calculer la meilleure taille de bloc pour chaque réseau dans le but d'optimiser l’ordonnancement du système.
Les principales étapes du projet sont:
1. Mettre en œuvre plusieurs réseaux neurones de traitement d’image sur la même carte NVIDIA GPU (NVIDIA JETSON AGX ORIN).
2. Conduire des expérimentations avec un jeu de données comprenant des images de différentes tailles et qualités visant à mesurer les temps d'exécution des différentes couches des réseaux neurones dans divers scénarios.
3. Déterminer une relation entre la taille du bloc utilisée pour chaque réseau et le temps d'exécution des différentes couches des réseaux neurones.
4. Développer un framework permettant de calculer la meilleure taille de bloc pour chaque réseau dans le but d'optimiser l’ordonnancement du système.
5. Comparer les résultats obtenus avec l’état de l’art.
Ce projet offre l'opportunité d'acquérir une compréhension approfondie des performances des réseaux de neurones dans des environnements embarqués. Il contribuera également à des travaux de recherche plus large qui concernent la mise en place d'une méthodologie pour l'ordonnancement des réseaux neurones temps réel sur des architectures GPU.
Le projet pourra déboucher sur une thèse en fonction de l’avancement du stage et du dossier du candidat.
Profil
Nous recherchons un(e) candidat(e) autonome, curieux(se) et ayant des compétences dans au moins un des domaines suivants :
* Réseaux de neurones (DNN ou CNN)
* Architectures GPU
* Systèmes temps réel
* CUDA / C++
Prise de fonction
01/03/2025
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.