Employeur présent le 26 et 27 mars au Salon TAF secteur DIGITALENT - NUMERIQUE
Nous recrutons un/e DATA ENGINEER H/F : 5 postes à pourvoir sur France entière
Minimum de 3 à 5 ans d'expérience dans un rôle similaire de Data Engineer ou dans la gestion de pipelines de données.
Le/la Data Engineer est responsable de la conception, du développement et de la gestion des architectures de données permettant de collecter, stocker et traiter des données à grande échelle. Il/elle travaille en étroite collaboration avec les Data Scientists, les Data Analysts et les équipes métiers pour garantir l'intégrité, la qualité et la disponibilité des données. Le/la Data Engineer crée des pipelines de données robustes et efficaces, tout en veillant à ce que les systèmes de gestion des données soient performants et évolutifs. Les missions principales incluent :
Concevoir, développer et maintenir des pipelines de données ETL (Extract, Transform, Load) robustes.
Assurer l'intégration des données provenant de diverses sources (bases de données, API, fichiers, etc.).
Gérer et optimiser les bases de données relationnelles et non relationnelles (SQL, NoSQL).
Collaborer avec les équipes Data Science et Data Analysis pour assurer la qualité et la disponibilité des données pour les analyses.
Mettre en place et gérer les environnements cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données.
Assurer la sécurité et la conformité des données, notamment en termes de protection et de confidentialité.
Gérer les flux de données et veiller à la mise à jour en temps réel des informations critiques.
Travailler à l'optimisation des performances des pipelines et des processus de données.
Participer à la définition des meilleures pratiques en matière de gestion des données et à la mise en place d'une gouvernance des données efficace.
Maîtrise des langages de programmation pour le traitement des données (Python, Java, Scala, etc.).
Expertise dans les bases de données relationnelles (MySQL, PostgreSQL) et non relationnelles (MongoDB, Cassandra, etc.).
Expérience avec des outils ETL (Apache Nifi, Talend, Informatica, etc.) et des frameworks Big Data (Hadoop, Spark).
Bonne connaissance des outils de cloud computing (AWS, Azure, Google Cloud).
Connaissance des systèmes de gestion des flux de données en temps réel (Kafka, Apache Flume).
Expérience en gestion de la sécurité et de la conformité des données.
Compétences en gestion de version (Git, GitLab).
Experience: 3 An(s)
Compétences: Analyser, exploiter, structurer des données,Enrichir une base de données,Concevoir et gérer un projet
Qualification: Agent de maîtrise
Secteur d'activité: Autres activités de soutien aux entreprises n.c.a.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.