InVivo est l'un des premiers groupes européens agricoles avec un chiffre d'affaires de près de 10 milliards d'euros et un effectif de plus de 13 salariés, dont environ 10 en France. Implanté dans 38 pays, il regroupe 90 sites industriels. Ce pilier de la souveraineté alimentaire intervient sur toute la chaîne de valeur en s'appuyant sur chacun de ses métiers stratégiques : Agriculture ; Malterie ; Meunerie / Boulangerie / Viennoiserie / Pâtisserie / Ingrédients ; Jardinerie et distribution alimentaire ; Négoce international de grains ; Viti-vinicole. Un pôle global transverse de solutions innovantes et digitales complète le dispositif pour accélérer la transformation de ces métiers. Créée en InVivo Digital Factory est en charge de la transformation digitale du Groupe InVivo. Nous agissons pour la performance durable du groupe InVivo par la réalisation de solutions et de services numériques. Notre vocation est de construire et d'opérer dans le cloud, un socle technologique et un ensemble de produits SaaS agTech et Retail à forte valeur ajoutée. Trois axes de transformation digitale : •L'amélioration des interactions clients (omnicanalité, e-commerce, blockchain, …), •L' excellence opérationnelle - l'expérience salarié (social learning, pilotage de process par la data, outils collaboratifs, méthode de travail agile), •L'émergence de nouveaux business models (récurrence des revenus, « data as an asset », le serviciel, le collaboratif, la désintermédiation)
Au sein des équipes Digital Factory du Groupe InVivo, vous prenez en charge la collecte des données issues de sources et de volumétries variées (systèmes d’information traditionnel ou No SQL, systèmes de production, IoT, log, Events, …). Vous assurez la connectivité vers les différentes sources, analysez le modèle des données sources et comprenez les problématiques métier afin de définir une modélisation adéquate des DataSets.
Vous prenez en charge la transformation de ces données (nettoyage, normalisation, et préparation), pour y appliquer les traitements analytiques conçus par les Data Scientists, ou les traitements décisionnels conçus par les Data Analysts.
En tant que sénior de l’équipe Data Engineering, vous assurez la relation avec les PO et apportez, au reste de l’équipe, votre maîtrise des architectures de flux de données, votre expérience sur la qualité des flux et des données ainsi que sur la sécurité.
Vous participez activement à l’acculturation des métiers.
Les locaux de la Digital Factory sont basés à La Défense. Télétravail à hauteur de 60%.
?????Les missions
- Recueillir les besoins en données (Data Product Owner, Data Analysts, Data Scientists) et analyser les sources de données, identifier de nouvelles sources de données pertinentes.
- Coordonner la mise en place de l’architecture Data & Analytics, conçue avec le data architect et en garantir le bon fonctionnement, la disponibilité, l’évolution et la performance technique des outils
- Développer les pipelines d’intégration de donnée et la data quality en collaboration avec les Data Product Owner, Data Analysts et Data Scientists
- Garantir l’industrialisation et l’automatisation de la chaîne de valeur de la donnée, en y intégrant les algorithmes décisionnels et les modèles de prédiction des données
- Effectuer une veille sur les nouvelles technologies et solutions et participer activement à l’effort R&D
- Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
????? De formation Bac école d’ingénieur orienté développement, ou master spécialisé en data, avec une spécialisation Big Data, vous êtes passionné.e par l’innovation et les technologies liées aux domaines Data Analytics & AI. Vous avez une expérience d’au moins 5 ans sur un poste similaire.
Vous faites preuve d’une grande capacité d’adaptation et capacité à communiquer avec des interlocuteurs multiples.
?? Vous êtes rigoureux.se, curieux.se, force de proposition, vous avez un bon esprit d’analyse et de synthèse. Vous appréciez le travail en équipe. Vous disposez d’une bonne capacité d’organisation, autonomie et sens de l’initiative. Maîtrise de l’anglais indispensable.
De fortes aptitudes en développement, notamment à travers une excellente maîtrise de langages de programmation comme : Python, C#, …
Bonne connaissance de la conception, l’audit et du déploiement d’architecture logicielle et technique autour des plateformes décisionnelles et des plateformes Big Data (Spark, Hadoop…)
Une excellente maîtrise du langage SQL, des bases dans la programmation de quelques bases de données NoSQL (Neo4j, MongoDB, …)
Excellente maîtrise des outils et techniques d’analyses des données et des méthodologies statistiques.
Maitrise des outils de traitement de la donnée (dbt, DataFactory ou autre ETL, Databricks, …)
Très bonne connaissance des environnements Cloud, notamment Azure, des technologies d’infrastructures Cloud et leurs performances
Bonne connaissance de Azure DevOps ou outil similaire
Connaissance des modèles Machine Learning afin d’en assurer l’industrialisation
Capacité à travailler en mode AGILE
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.