Ingénieur Data - Sète
Dernière mise à jour: il y a 4 jours
Description de poste:
Positionné au sein de la DSI, le Data Engineer contribue activement à la gestion et à l'exploitation des données métier. Il participe à la production et à la maintenance des indicateurs de performance, en veillant à ce que les données soient organisées, fiables, et accessibles pour un suivi précis des performances opérationnelles.
Responsabilités:
1. Conception et mise en œuvre des modèles de données:
o Participer à la création et à l'organisation des entrepôts de données sur Snowflake, en veillant à ce qu'ils soient facilement extensibles et adaptables aux besoins futurs.
o Contribuer à la création de modèles de données optimisés pour la gestion et l'analyse des données dans Snowflake.
o Structurer les bases de données pour optimiser le stockage, la gestion, et l'accès aux données en fonction des différentes applications métiers.
o S’assurer que les modèles de données soient normalisés et respectent les meilleures pratiques en matière de gestion des données pour garantir la cohérence et l'intégrité.
o Mettre en place des politiques de sécurité pour protéger les données sensibles des accès restreints et contrôlés.
2. Création et déploiement de pipelines de traitement:
o Concevoir des scripts Python pour automatiser l'extraction, la transformation et le chargement (ETL) des données à partir de nos outils métiers (SQL) et de sources multiples vers Snowflake.
o Exploiter les bibliothèques de Python comme Pandas, NumPy, etc., pour effectuer des transformations de données et des analyses statistiques.
o Implémenter des pipelines utilisant Snowpipe afin de réaliser automatiquement des traitements de données dans Snowflake.
o Utiliser des outils de planification pour automatiser et orchestrer l'exécution des pipelines de données.
o Travailler avec un ETL du marché (FME) pour automatiser certains processus de collecte de données.
o Gérer l'intégration des données issues des API de Google (Google Ads, Google Search Console, etc.), permettant l'analyse des performances publicitaires et du trafic web.
3. Maintenance et optimisation des pipelines:
o Assurer la surveillance continue des pipelines de données pour identifier et résoudre les problèmes de performance, de latence ou de qualité.
o Proposer des améliorations techniques et fonctionnelles pour rendre les pipelines plus évolutifs et performants.
o Mettre à jour régulièrement la documentation technique des pipelines.
Qualifications:
Formation: BAC+5 (Master ou diplôme d’ingénieur) en Informatique, Mathématiques appliqués, Data Science, Ingénierie des Systèmes d’Information ou Big Data.
Expérience: 2 ans d’expérience minimum sur un poste similaire.
Qualités: Rigueur, Sens du détail, Capacité d’analyse, Efficacité, Ouverture d’esprit, Curiosité, Force de proposition.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.