Dans l'idéal, il faudrait un profil sénior qui puisse être à la fois dans le delivery & dans la pédagogie / formations de ressources plus junior (03 data engineers junior).
Par ailleurs, une expérience sur la création d'une plateforme data sur AWS serait un vrai plus.
Le client a initié sa transformation digitale il y a quelques années et a mis en place une plateforme de données dans le cloud pour permettre aux métiers d'accéder à leurs data et leur permettre d'analyser mieux et plus rapidement, pour ainsi générer de la valeur pour le business. L'enjeu est maintenant d'accélérer l'usage de cette plateforme en la faisant évoluer pour qu'elle réponde à l'ensemble des attentes des end users du client, tout en respectant nos règles de sécurité et les différents niveaux d'autorisation de nos utilisateurs.
[Dans le cadre de cette transformation nous souhaitons bénéficier d'une expertise Data Engineering pour faire évoluer notre plateforme Data sur le Cloud et accélérer l'usage de la donnée.
Lot 1 : Mise en place de pipelines de données :
- Rédaction des spécifications et du plan de validation
- Développer / assembler des pipelines data (chaine de traitement des données)
- Intégrer des pipelines data (chaine de traitement des données)
- Mettre en place le monitoring des pipelines data (chaine de traitement des données)
- Validation des développements et garant de la qualité des livrables
Lot 2 :
- Evolution et optimisation de la data platforme SLS sur le Cloud avec mise en place de nouvelles fonctionnalités (Data Qualité, Monitoring, intégration système tiers, etc.)
- Participe à l'évolution des bonnes pratiques d'architecture
Profil :
- Expertise Programming et développement de pipelines et de base de données (Expertise Python et SQL)
- Gestion de la donnée
- Sécurité liée à la gestion des données
- Expertise en services Data sur la Plateforme AWS (Certifications AWS : Data Analytics, Big Data) : S3,
HDFS, RDS, Redshift, EMR, Glue
- Expertise en solutions Big Data/Analytics : Spark, Hadoop, NoSQL
(- Expertise en technologies d'intégration de données de type ETL/EAI : Mulesoft
- Expertise en chaîne d'automatisation MLOPS et CI/CD
- Infrastructure/system architecture design
- Sensibilité aux principes de Data architecture et connaissance en MCD
Merci de proposer une matrice d'évaluation sur les technologies demandées :
Python
Spark
SQL
Postgre
Mulesoft
Talend
Environnement AWS
S3
Redshift
Glue
Step Functions
Vélizy Villacoublay (78)
Présence sur site au début puis 02 jours par semaine
ASAP -> 31 Décembre 2025 (renouvellement possible)
Le client souhaite un profil avec minimum 5 ans d'expérience sur du traitement distribué, Python, Spark et plateforme de données.
Python & spark sont très importants.
Anglais courant obligatoire
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.