Rejoignez une aventure européenne au cœur de la transformation du marché de l’assurance animale. Nous recherchons un(e) Data Engineer talentueux(se) et motivé(e) pour rejoindre notre équipe dans un contexte de refonte technologique majeure. Vous interviendrez à la fois sur la migration d’un ancien système Java/SQL vers une architecture data moderne, le support RUN d’une plateforme existante, et la construction d’une nouvelle plateforme data basée sur la stack Azure & Databricks. Ce poste requiert une bonne compréhension des systèmes complexes, un sens du détail et une capacité à naviguer entre les technologies anciennes et modernes. La société Pinnacle Pet Group (PPG) est le leader européen de l’assurance santé animale, avec un écosystème de marques solides comme HD Assurances, CaptainVet et Veterfina. Présent dans plus de 6 pays et en pleine expansion, le groupe couvre aujourd’hui, en France, plus de 150 000 animaux rien qu’en France, et poursuit une croissance rapide, portée par l’innovation, la technologie, et une vision claire : réinventer la relation entre les propriétaires, les vétérinaires et l’assurance. Principales responsabilités Analyse et compréhension d’un système existant développé en Java et SQL : reverse engineering, documentation de l’architecture, identification des fonctionnalités clés. Support & Troubleshooting sur un système data existant utilisant Salesforce, Azure Stack et Power BI. Développement de pipelines de données modernes et de Data Warehouses sous Azure (Data Factory, Synapse, Databricks…). Développement de Dashboard sur PowerBI. Maintenance et évolution des référentiels et de la documentation des processus. Collaboration étroite avec l’équipe IT, Data Analyst et les experts métiers. Participation à l’amélioration continue des pratiques data et de l’architecture cible. Compétences requises Techniques (obligatoires) : Très bonne maîtrise de Java, SQL et Python. Maîtrise de Git pour la gestion de versions. Solides bases en algorithmique, programmation orientée objet, bases de données, ETL et modélisation Data Warehouse. Techniques (souhaitées) : Expérience avec au moins un outil de reporting (Power BI, Tableau, etc.). Expérience avec un outil ETL (Talend, Data Factory, etc.). Expérience sur une plateforme Cloud (Azure, GCP, AWS). Atouts supplémentaires (idéalement) : Connaissance de l’écosystème Azure : Data Factory, Synapse Analytics, Azure SQL Database, Data Lake, Databricks. Salesforce Autres compétences : Capacité à lire et rédiger de la documentation technique. Autonomie, rigueur, esprit d’analyse. Très bon niveau d’ anglais, oral et écrit (équipe internationale). Formations et expériences souhaitées Diplôme : Ingénieur ou Master en Data Science, Big Data, Informatique, ou Systèmes d’Information. Expérience : 1 à 2 ans d’expérience (Expérience en Alternance acceptée). Une première expérience dans des environnements complexes ou de refonte est un plus.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.