Positionné au sein de la DSI, le Data Engineer contribue activement à la gestion et à l'exploitation des données métier. Il participe à la production et à la maintenance des indicateurs de performance, en veillant à ce que les données soient organisées, fiables, et accessibles pour un suivi précis des performances opérationnelles.
CONCEPTION ET MISE EN ŒUVRE DES MODELES DE DONNEES
* Participer à la création et à l'organisation des entrepôts de données sur Snowflake, en veillant à ce qu'ils soient facilement extensibles et adaptables aux besoins futursContribuer à la création de modèles de données optimisés pour la gestion et l'analyse des données dans Snowflake Structurer les bases de données pour optimiser le stockage, la gestion, et l'accès aux données en fonction des différentes applications métiers
* S’assurer que les modèles de données soient normalisés et respectent les meilleures pratiques en matière de gestion des données pour garantir la cohérence et l'intégrité
* Mettre en place des politiques de sécurité pour protéger les données sensibles des accès restreints et contrôlés
CREATION ET DEPLOIEMENT DE PIPELINES DE TRAITEMENT
* Concevoir des scripts Python pour automatiser l'extraction, la transformation et le chargement ( ETL ) des données à partir de nos outils métiers ( SQL ) et de sources multiples vers Snowflake Exploiter les bibliothèques de Python comme Pandas, NumPy, etc., pour effectuer des transformations de données et des analyses statistiquesImplémenter des pipelines utilisant Snowpipe afin de réaliser automatiquement des traitement de données dans Snowflake Utiliser des outils de planification pour automatiser et orchestrer l'exécution des pipelines de données
* Travailler avec un ETL du marché ( FME ) pour automatiser certains processus de collecte de donnéesGérer l'intégration des données issues des API de Google (Google Ads, Google Search Console, etc.), permettant l'analyse des performances publicitaires et du trafic web
MAINTENANCE ET OPTIMISATION DES PIPELINES
* Assurer la surveillance continue des pipelines de données pour identifier et résoudre les problèmes de performance, de latence ou de qualité
* Proposer des améliorations techniques et fonctionnelles pour rendre les pipelines plus évolutifs et performants
* Mettre à jour régulièrement la documentation technique des pipelines
Formation : BAC+5 (Master ou diplôme d’ingénieur) en Informatique, Mathématiques appliqués, Data Science, Ingénierie des Systèmes d’Information ou Big Data
Expérience : 2 ans d’expérience minimum sur un poste similaire
Qualités : Rigueur, Sens du détail, Capacité d’analyse, Efficacité, Ouverture d’esprit, Curiosité, Force de proposition.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.