Description du poste :
Contexte :
Au sein de la Data Factory, nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Le candidat retenu intègrera la squad dédiée au périmètre E-Commerce.
Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée.
Description de la Mission :
Analyse et Conception
Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux.
Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets.
Être force de proposition sur l'amélioration de notre stack Data.
Développement et Intégration
Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données.
Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale.
Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données.
Qualité, Maintenance et Supervision
Mettre en place des processus et des contrôles pour garantir la qualité des données.
Concevoir et mettre en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces.
Assurer la maintenance corrective ou évolutive.
S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe.
Documentation, Support, Pilotage
Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation).
Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO.
Faire le reporting d'avancement des travaux.
Supporter le déploiement.
Environnement Technique :
Langages/Framework : SQL, BigQuery, Python, Shell.
Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Compétences Recherchées :
De formation Informatique/Ingénieur, avec une appétence pour le développement et la manipulation de données ainsi qu'une bonne maîtrise de Python et de SQL.
Avoir une expérience au sein de l'environnement GCP avec l'utilisation des principaux services (BigQuery, Cloud Storage, DataFlow, DataForm, Pub/Sub, Composer.) est un prérequis.
Une certification serait un plus.
Une expérience avec Talend et des outils de visualisation est un plus.
Esprit Analytique : Capacité à résoudre des problèmes complexe et à optimiser les processus de traitement de données
Experience: Expérience exigée de 6 An(s)
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.