Petit Bateau est la marque qui accompagne toutes les générations depuis plus de 130 ans.
Née à Troyes en 1893, la marque Petit Bateau est fière de son héritage français et de son savoir-faire qui permet de créer des vêtements qui traversent le temps.
Au sein du Groupe Rocher, Petit Bateau incarne un esprit espiègle et joyeux, à travers des vêtements dans lesquels on libère sa créativité et son envie de bouger.
L’équipe Data & CRM de Petit Bateau est pleinement mobilisée pour servir les ambitions fortes de la marque. Elle regroupe les métiers qui interviennent sur la chaîne de valeur de la donnée de l’entreprise (Data Engineers, Data Scientists, Data Analysts, Expert dataViz). L’objectif ? Contribuer ensemble à infuser la Data dans tous les métiers (Retail, Digital, Client, Produit, Opérations) pour y accélérer la création de valeur.
Pour mener à bien cette mission toute l'équipe Data contribue à transformer Petit Bateau en une entreprise data driven, à repenser nos process data pour gagner en efficacité, et à déployer tout le potentiel de notre nouvelle stack (Suite GCP, Python, Tableau).
Nous recherchons un profil Data Engineer GCP qui sera rattaché à l’équipe Data Delivery pour développer largement notre datahub et accompagner les équipes dans la croissance de l’entreprise :
- Concevoir, mettre en œuvre et maintenir un entrepôt de données solide et optimisé ; qui collecte, stocke et traite les données, en mettant l'accent sur la performance, l'évolutivité et la fiabilité
- Mettre en place des pipelines de collecte de données en mode batch et streaming
- Être garant de la qualité du code
- Travailler en étroite collaboration avec les équipes Analytics pour concevoir les modèles de données mis à disposition pour développer la BI Self-Service (notamment via Tableau)
- Travailler en étroite collaboration avec les équipes Data Science pour les aider à industrialiser des algorithmes et des outils d'apprentissage automatique pour explorer et visualiser les données
- Documenter les flux mis en place
Environnement technique :
- Python, SQL,
- Git
- Airflow
- Docker
- GCP : BigQuery, Google Storage, Datastore, Data Flow, Cloud Functions / Scheduler, Cloud PubSub
- XML, JSON, CSV
- Viz : Tableau, QlikView, Looker
Profil :
De formation type Bac+4 /+5 avec une spécialisation Data Engineering, vous justifiez d’une expérience de 1 à 2 ans dans la mise en œuvre de solutions data ; l’environnement digital sera un +
Vous avez un excellent niveau SQL et de bonnes compétences en Python
Vous faites preuve de solides compétences en développement, industrialisation d’architectures et de pipelines de données
En particulier, vous avez l’expérience de mise en œuvre d’architectures performantes sur le cloud GCP avec la maîtrise des services BigQuery.
Vous aimez travailler en équipe et communiquer avec des audiences pas nécessairement techniques.
Vous êtes autonome, pro-actif, force de proposition, enthousiaste, et engagé !
Welcome to the Jungle
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.