Dans le cadre d?un projet stratégique au sein d?un acteur bancaire majeur, nous recherchons un Data Engineer Hadoop afin de structurer, optimiser et sécuriser la gestion des données dans un environnement Big Data.
Vous aurez pour mission d?assurer la conception, l?implémentation et l?évolution des pipelines de données, en veillant à garantir leur performance, leur scalabilité et leur robustesse. Vous travaillerez en étroite collaboration avec les équipes Data Science et IT pour optimiser les flux de données et garantir une exploitation efficace des infrastructures.
Votre rôle inclura également l?optimisation des traitements distribués, l?automatisation des processus et l?amélioration continue des performances des systèmes basés sur Hadoop et son écosystème.
Profil candidat:
Vous justifiez d'au moins 10 ans ans d'expérience dans la gestion de projets Big Data et l'optimisation des infrastructures Hadoop.
Les qualités et compétences attendues incluent :
Expérience confirmée sur Hadoop et son écosystème (HDFS, YARN, Hive, Impala, HBase, Oozie).
Compétences avancées en ETL, ingestion et transformation de données.
Maîtrise des langages Python, Scala ou Java pour la manipulation de données.
Connaissance des outils de gestion de workflow et d'orchestration (par exemple : Airflow).
Compétences en sécurisation et optimisation des clusters Hadoop.
Expérience dans des environnements Cloud hybride.
Anglais opérationnel requis.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.