Job Description Description du projet : Safran est un groupe international de haute technologie, équipementier de premier rang dans les domaines de l'aéronautique, de l'espace, de la défense et de la sécurité. Au sein du Département des Sciences et Technologies du Numérique de Safran Tech (le centre de R&T du groupe), l'équipe Confiance, Autonomie, Simulation et Perception a en charge la conception algorithmique de robotique autonome et de vision artificielle pour les produits de SAFRAN. Ce stage s'inscrit dans le cadre de développement de l'autonomie d'un drone démonstrateur, un octocoptère de 25 kg, ayant pour but de se préparer et d'inventer les technologies de demain pour les UAV (Unmanned Aerial Vehicle). Ce drone peut être équipé de différents capteurs : lidar, IMU, caméras, GNSS. Un algorithme de SLAM, pour Simultaneous Localization And Mapping, nourrit deux objectifs complémentaires : la localisation et la construction d'une carte de l'environnement. Actuellement les techniques les plus utilisées sont basées sur une représentation simple de l'environnement (nuage de points, voxels, maillage ou carte d'élévation). Cependant, ces dernières années ont vu émerger les techniques de NeRF (Neural Radiance Field) et de Gaussian Splatting [1] (littéralement éclaboussures gaussiennes) en utilisant une modélisation d'environnement beaucoup plus riche. Les NeRF représente l'environnement par un réseau de neurones tandis que les Gaussian Splatting utilisent des distributions gaussiennes. L'objectif de ce stage sera de réaliser un SLAM utilisant les Gaussian Splatting (ou éventuellement un NeRF) comme représentation de l'environnement [2] [3]. [1] B. Kerbl, G. Kopanas, T. Leimkühler et G. Drettakis, «3D Gaussian Splatting for Real-Time Radiance Field Rendering,» ACM Trans. Graph., vol. 42, n°14, 2023. [2] K. Botashev, V. Pyatov, G. Ferrer et S. Lefkimmiatis, «GSLoc: Visual Localization with 3D Gaussian Splatting,» IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2024. [3] R. Xiao, W. Liu, Y. Chen et L. Hu, «LiV-GS: LiDAR-Vision Integration for 3D Gaussian Splatting SLAM in Outdoor Environments,» IEEE Robotics and Automation Letters, 2024. Complementary Description Le ou la stagiaire devra s'appuyer sur des compétences en programmation (Python et/ou C++), en vision par ordinateur et sur sa formation scientifique afin de développer une compréhension de l'état de l'art et d'être force de proposition. Le stage se décomposera en trois parties : Lecture d'articles et réalisation d'un état de l'art sur l'utilisation de l'apprentissage automatique par des algorithmes de SLAM. Choix de la méthode à implémenter Implémentation d'une méthode de l'état de l'art et adaptation aux données Safran. Etude des performances et des cas limites de la solution. Proposer des améliorations ou des nouvelles solutions en fonction des résultats obtenus, résultant éventuellement sur des dépôts de brevets et/ou des publications scientifiques Job Requirements Niveau d'étude : Dernière année d'école d'ingénieur ou M2 ou césure Disciplines : Vision par ordinateur – Programmation Python et/ou C++ Langues : Anglais pour lecture scientifique Autre : Curiosité – Appétence pour la recherche
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.