Les missions
Dans le contexte du projet de mise en place de la Data Platform mon client vise :
- à construire une plateforme au coeur du SI de mon client pour consolider toutes les données liées aux clients/prospects et contenus
- à activer et exploiter les données à travers IA
Je recherche un·e Lead ingénieur·e data responsable de la conception, du développement et de l’optimisation des infrastructures de données, avec une répartition des missions comme suit :
• 30% sur le management et l’encadrement d’équipe.
• 30% sur la conception et l’architecture des infrastructures data.
• 40% sur l’opérationnel et la gestion de projet.
Cette base repose sur les 3 étapes de préparation et présentation de la donnée que sont le datalake, le datawarehouse et les datamarts. Son architecture technique repose principalement sur AWS et l’ETL Talend pour la gestion des flux de données.
Vous aurez pour missions :
• Concevoir et mettre en place l’architecture data de la plateforme, basée sur AWS.
• Développer et optimiser les pipelines de traitement et d’intégration des données (DataLake, DataWarehouse, Datamarts) en Batch et Streaming.
• Assurer la gouvernance des données : qualité, sécurité, accessibilité.
• Encadrer et accompagner une équipe d’ingénieurs data.
• Automatiser les flux de données et améliorer la performance des traitements.
• Collaborer avec les équipes Data Gouvernance, CRM, infrastructures et marketing pour garantir la disponibilité et la qualité des données.
• Mettre en place des indicateurs de suivi et de cohérence des flux de données.
• Assurer une documentation technique rigoureuse pour assurer la pérennité des solutions mises en place.
• Piloter les projets data et assurer leur bonne exécution en respectant les délais et les exigences métier.
• Apporter une assistance technique du modèle de données et vous réaliserez les évolutions à apporter en intégrant et automatisant les évolutions.
Profil recherché
• Maîtrise d’au moins un langage de programmation : Python/Java/Scala.
• Expertise sur les bases de données SQL et NoSQL (Redshift, PostgreSQL, MongoDB, etc.).
• Expérience avec les outils d’ETL/ELT (Talend, Airflow, DBT, etc.).
• Connaissance des architectures modernes de données (Data Lakehouse, Data Mesh, etc)
• Expérience avec les solutions Cloud (AWS, GCP, Azure).
• Connaissance des technologies de streaming (Kafka, Spark Streaming).
• Expérience en CI/CD appliqué à la data (Git, Docker, Terraform).
• Bonne compréhension des enjeux de gouvernance et de sécurité des données (GDPR, anonymisation, chiffrement, etc.).
• Capacité à encadrer une équipe et à fédérer autour de projets ambitieux.
• Esprit analytique et résolution de problèmes complexes.
• Rigueur et sens de l’organisation.
• Curiosité et veille technologique constante.
• Bac +5 en informatique, ingénierie, data science ou équivalent.
• Expérience significative en ingénierie des données et en gestion d’équipe.
• Connaissance des outils et plateformes (Talend ETL/ESB, Redshift, S3, RDS, Dataiku, Tableau, GitLab).
Genious Systèmes est une entreprise de service numérique spécialisée dans l’expertise Infrastructure, Système, Cloud Public, Poste de travail et Production.
Nous accompagnons au travers de projets innovants nos clients grands comptes dans la transformation et la modernisation de leurs environnements.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.