Nous recrutons pour notre client - Grand groupe Français dans le domaine de la santé, un/e personne qui occupera un poste nouvellement créé de Data Engineer (H/F) à Lille - en interne au sein de l'équipe Data et Flux .
Notre client est actuellement en pleine transformation avec de gros projets de transformation et de forts enjeux au niveau data :
* Migration SAP (passage de SAP ECC à SAP S/4HANA)
* Migration Cloud
* Refonte de la plateforme d’échange de données
Description des missions principales:
Le rôle du Data Engineer (H/F) sera de concevoir, construire et maintenir les infrastructures de gestion des données. Au quotidien, il assurera donc la collecte, le stockage et le traitement efficace des données à grande échelle.
Les principales missions seront les suivantes :
Conception et mise en œuvre :
* Concevoir et mettre en œuvre des pipelines de données robustes et évolutifs pour la collecte, le stockage et le traitement des données
* Intégrer diverses sources de données et assurer l'ingestion des données en temps réel ou batch
Maintenance et optimisation :
* Maintenir les infrastructures de données, garantir leur fiabilité et leur performance
* Optimiser les processus de traitement des données pour améliorer l’efficacité
Sécurité et qualité :
* Assurer la qualité et l’intégrité des données collectées et stockées
* Implémenter des mesures de sécurité pour protéger les données et garantir la confidentialité
Collaboration :
* Travailler en étroite collaboration avec les data analysts et le product owner pour comprendre les besoins en données et y répondre
Veille technologique :
* Suivre les évolutions technologiques et proposer des améliorations des infrastructures de données
Gestion des incidents :
* Assurer l’accompagnement constant des équipes opérations sur la résolution des incidents de niveaux 1 et 2
* Prise en charge des incidents de niveau 3
* Contribue aux actions d’amélioration continue grâce à son expertise
Profil recherché pour le poste (H/F) :
* Expérience d'au moins 5 ans sur un poste de Data Ingénieur
* Diplôme universitaire en informatique, en génie logiciel, en science des données ou dans un domaine connexe
* Maîtrise des technologies et des outils suivants : Snowflake (AWS, Salesforce, Databricks) Cloud (Amazon, Google GCP ou Azur), Talend (Informatica, SSRS, Tableau), DBT, Python, SQL
* Bonne compréhension des architectures, des modèles et des concepts de base de données (BI, Datawarehouse, modélisation)
* Expérience avancée dans la mise en œuvre de pipelines ETL et dans la gestion de bases de données
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.