Job details
Job Type
Full-time
Permanent
Full Job Description
Filiale bancaire du groupe Carrefour, Carrefour Banque propose depuis plus de trente ans une large gamme de produits adaptés aux attentes des clients et consommateurs : Carte PASS, prêt personnel, épargne et assurances.
Pour mieux servir ses clients, Carrefour Banque mise à la fois sur l’innovation et sur des partenariats avec des acteurs reconnus qui accompagnent la diversification des activités.
Vous intégrerez la Direction des Systèmes d’Information. Vous serez rattaché au responsable du Pôle Big Data & DataLab, au sein du département Data.
Le Département DATA contribue à la croissance du Chiffre d’Affaires de Carrefour Banque, en définissant et en développant des usages pertinent de la Data sur des problématiques variées et à forte valeur ajoutée (Extraction, Valorisation, Exposition, Traitement, AI, ML, etc.). Sa mission s’articule autour de la maintenance en condition opérationnelle des socles techniques ainsi qu’en la mise en œuvre de nouveaux produits et solutions en lien avec les ambitions DATA du groupe.
Nous recherchons un(e) :
Ingénieur de données cloud (H/F)
Cloud Data Engineer
Depuis Janvier 2020, Carrefour Banque s’est doté d’une plateforme Data Centric basée essentiellement sur l'offre Google Cloud Platform.
Rattaché au responsable du pôle Big Data & DataLab, vous aurez pour principales missions de :
- Réaliser le maintien en condition opérationnelle du socle applicatif et des services associées (API d’ingestion streaming, Data Catalog, Data Loader, Pipelines de données, Puits de log, Usages Data ...)
- Industrialiser des applications Machine Learning produites au sein de Carrefour Banque par le DataLab'
- Développer des applications Data de grande échelle et en temps réel, tirant parti de l’infrastructure Big Data
- Construire et intégrer de nouvelles briques dans l’infrastructure existante de traitement des données et / ou l’infrastructure de micro-services
- Déployer les data services dans une démarche CI/CD
- Accompagner les usages du Socle (Assistance en cas de problème, évolutions mineures)
L'écosystème de données (stack Technique) :
Vous serez amené à utiliser les outils suivants :- GCP : BigQuery, DataFlow, PubSub, FireStore, Cloud Composer
- API : Swagger, Postman
- CI / CD : Jenkins, Nexus, Bitbucket, Ansible, Portus
Vous serez amené à utiliser les langages et normes suivants :- Python, Java
- Architecture microservices et norme d’exposition d’API REST
- JSON, YAML
Votre profil :
Vous devez disposer d’une solide formation en Big Data, Bac+5 (Université ou Grande Ecole d’ingénieur) avec une expérience significative de développement de solutions Data en environnement Cloud.
Il est notamment attendu :- Une bonne maitrise des langages Python, Java
- Des compétences transverses sur les différents services du Cloud provider GCP (un accompagnement sera fourni dans les premiers mois)
- Un intérêt pour les nouvelles technologies Cloud et des capacités d’adaptation à cet écosystème en rapide mutation
- Une forte appétence à l’industrialisation et au DevOps
- Une bonne culture Data
- Le plus : une connaissance relative des algorithmes d’IA/ML
Informations complémentaires :
- Un salaire fixe sur 13 mensualités
- Participation, intéressement, plan d’épargne
Référence de l'offre 003HBN
Vous souhaitez nous rejoindre, postulez !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.