Job Description
euRHasi recrute pour son client un Data Engineer en CDI à Lyon.
Descriptif de l'entreprise
Notre client est une plateforme mondiale dédiée à l'achat et à la vente de pièces automobiles, exclusivement au service des distributeurs et des équipementiers. Elle garantit un inventaire complet et aide à éviter les ruptures de stock grâce à un vaste réseau mondial de fournisseurs de pièces de rechange.
L'équipe (30 personnes), composée à la fois de profils expérimentés et juniors, évolue dans une ambiance sérieuse mais conviviale, où collaboration et échanges sont au cœur du quotidien.
Nos bureaux, idéalement situés au centre de Lyon, entre Bellecour et Perrache, sont facilement accessibles en transports en commun.
Après avoir construit le socle technique de traitements des data, nous sommes dans une forte phase de développement sur tous les métiers de l’entreprise (sourcing, commerce, adv) ainsi que géographiquement.
Notre roadmap produit est riche en nouveaux use cases data/IA et implique toujours plus d’interaction avec les systèmes IT de nos fournisseurs/clients.
C’est dans cette phase de développement que nous cherchons à renforcer notre équipe data avec deux profils de Data engineer, ayant une expertise SQL/Python.
Description du poste :
Notre stack est centrée aujourd’hui sur Snowflake (SQL) et va évoluer prochainement pour intégrer une nouveau data store fast analytics (également SQL).
La data engineer implique donc de nombreux développements SQL, couplés à quelques développements python d’ingestion/extraction de nos data.
Les missions seront les suivantes et pourront évoluer avec le temps selon notre roadmap produit et technique :
- Missions centrées sur SQL (70%)**
La plupart des missions concernent la structuration, l’évolution, le contrôle, et le maintien en conditions opérationnelles des pipelines dans nos data stores SQL (Snowflake en particulier) :
· Concevoir, implémenter et faire évoluer des modèles et traitements de données dans notre Snowflake et notre future data store fast analytics.
Mettre en place et maintenir des contrôles qualité dans notre outil de data observability Openmetadata.
Réaliser des extractions de données sur des besoins spécifiques métiers.
Documenter les créations ou l’évolution des modèles et process de traitements de données.
Apporter un support aux développeurs de notre app sur le requêtage SQL de nos bases de données
- Missions hors SQL (30%)
Ces missions consisteront à intervenir sur l’écosystème des outils connectés à nos data stores actuels et à venir, notamment :
BI : Mettre en place des POC de dashboards BI.
ETL : Concevoir et implémenter des data pipelines.
Métier : Apporter un support aux utilisateurs métier pour qualifier les problèmes data.
Notre stack data est composée de :
Data stores : Snowflake, PostgreSQL, Elasticsearch (solution fast analytics en cours de selection)
ETL : Dagster (orchestrateur + ETL), Airbyte
Outils interne : OpenMetadata (data observability), BI (Apache Superset), Admin (Streamlit)
Devops : VSCode, Github, FluxCD, Dbt, Sqitch, Kubernetes
Infra : AWS, Scaleway
Ce que nous offrons :
Nous rejoindre, c’est :
Contribuer activement à la croissance d'une start-up innovante.
Intégrer une équipe motivée et collaborative.
Vivre une expérience professionnelle stimulante et enrichissante.
Si tu souhaites participer à une aventure ambitieuse au sein d'une entreprise en pleine expansion, nous serions ravis de t’accueillir dans notre équipe
Profil
Profil et compétences
Expérience : Minimum 3 ans d’expérience dans des fonctions similaires
Les compétences minimales requises sont :
Bonne maitrise du langage SQL.
Connaissance python.
Expérience avec des bases de données relationnelles.
Capable de lire/rédiger de l’anglais technique.
Maitrise des outils de développement (Linux, Git, VSCode)
Plus que des compétences techniques expertes, nous recherchons une personne :
A l’aise et capable de monter en compétences dans un environnement peu structuré et peu documenté (startup, nous nous structurons petit à petit avec notre croissance).
Capable de chercher l’information, l’analyser et l’appliquer concrètement avec rigueur en autonomie.
D’avoir un esprit critique sur les analyses/résultats obtenus (incohérences, biais, qualité…).
De s’intéresser et monter en compétences sur les problématiques métiers.
Savoir être
Tu fais preuve de rigueur dans le travail fourni.
Tu as un esprit d’équipe et apporte un support à tes collègues si besoin.
Tu es capable d’expliquer ton travail et communiquer facilement avec différents interlocuteurs.
Tu es moteur et pas uniquement dans l’attente de directives.
Informations contractuelles
Contrat : CDI
Lieu : Lyon Perrache
Avantages :
Tickets restaurant.
12 RTT/an.
Prime de vacances.
Télétravail 2 jours par semaine
Requirements
Bonne maitrise du langage SQL. · Connaissance python. · Expérience avec des bases de données relationnelles. · Capable de lire/rédiger de l’anglais technique. · Maitrise des outils de développement (Linux, Git, VSCode) Plus que des comp**étences techniques expertes, nous recherchons une personne :** · A l’aise et capable de monter en compétences dans un environnement peu structuré et peu documenté (startup, nous nous structurons petit à petit avec notre croissance) · Capable de chercher l’information, l’analyser et l’appliquer concrètement avec rigueur en autonomie. · D’avoir un esprit critique sur les analyses/résultats obtenus (incohérences, biais, qualité…). · De s’intéresser et monter en compétences sur les problématiques métiers.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.