Et si c'était Vous ? Notre futur Expert.
Venez rejoindre notre équipe et faites partie d'une communauté de passionnés.
Nos experts sont avant tout des addicts des nouvelles technologies. Ils ont tous un esprit communautaire et ils sont prêts à partager leur passion.
« Seul on va plus vite, ensemble on va plus loin »
Qui sommes nous ?
Une communauté d'experts et de talents positionnés sur des technologies émergentes. Ils sont formés, certifiés, réalisent des projets innovants et échangent sur la veille Technologique
Mission Pour Le Compte D'un Client
- Automatiser des déploiements d'Infrastructures Cloud (Terraform, Packer / Ansible)
- Intégrer et automatiser les déploiements des composants applicatifs permettant les traitements de données au sein d'un cluster Kubernetes (Gitlab, Jupyterlab, Spark)
- Assurer la maintenance du code de déploiement de l'infrastructure et des composants applicatifs
- Assurer une veille sur les sujets technologiques et de sécurité.
- Implémenter les nouvelles fonctionnalités dans la plateforme, les applications et les services fournis sur la plateforme via l'intégration de solution techniques (Gitlab JupyterLab)
- Suivre les bonnes pratiques et les recommandations sur la sécurité des données et de la plateforme lors des déploiements des nouvelles fonctionnalités.
- Contribuer à l'évolution de l'architecture et de l'implémentation de la plateforme et des services associés en partageant son expertise cloud et/ou en traitements distribués avec les architectes et le directeur technique.
Profil Souhaité
- 7 ans d'expérience dans le développement ou l'opération d'infrastructure avec une première expérience significative dans le déploiement d'infrastructure as code et les outils associés (Terraform, Ansible, Packer)
- Expérience significative en environnement Cloud (expertise en configuration, gestion, déploiement, monitoring etc.)
- Maîtrise de la totalité de la chaîne de conception, de développement et de déploiement de plateformes Cloud
- Connaissance approfondie des offres IaaS ou PaaS du marché
- Connaissance en architecture et technologies de systèmes distribués, utilisées notamment dans le cadre de projets en science des données : gestion des conteneurs : Docker, Kubernetes, etc., stockage : Objet, SQL, NoSQL, HDFS, etc.
- Traitement distribué : écosystème Hadoop, Spark, Kafka, etc.
- Connaissance des bonnes pratiques permettant de garantir la sécurité de la plateforme (gestion des traces, IAM, RBAC, etc.)
- Maîtrise des principes agiles
- Certification AWS Professional souhaitée
- Sensibilité aux contraintes propres aux données de santé (notamment en matière de sécurité).
Notre Processus De Recrutement
Nous avons un process qui s'effectue en 4 étapes :
- Vous aurez un entretien Teams ou physique avec moi, Roussel Chargé de Recrutement.
- Un entretien technique qui s'effectue par téléphone ou Teams avec l'un de nos Experts.
- Un dernier échange téléphonique avec Stephane, le directeur de la BU.
- Fin du processus. Je reviendrais vers vous pour vous pour faire une proposition salariale (dans le cas où nous souhaitons avancer avec vous).
Pour toutes ces étapes compter une durée de 15 jours maximum.
CODE REC : EMA24187
Qu'attendez-vous pour être Open ?
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.