Sur ce poste, vous serez intégré(e) à une équipe de projet et participerez à la mise en place de projets Big Data en intervenant notamment sur les missions suivantes :
1. Analyser les besoins clients et formaliser les cas d’usages correspondants.
2. Participer activement à la conception et à la réalisation des solutions Big Data.
3. Développer des solutions d’ingestion de données depuis des sources multiples pour les déverser dans un data lake : Nifi, Sqoop, Kafka, etc.
4. Passer de la donnée brute à de la donnée propre (inférer les schémas de données, nettoyer, normaliser et publier les données).
5. Consolider les données au fur et à mesure de leur alimentation récurrente dans le data lake.
6. Exploiter les résultats pour atteindre la finalité business : exposition de business view, réintégration des résultats dans le SI, service de scoring, etc.
7. Mettre en place et garantir le respect dans la durée d’un processus qualité sur l’ensemble du cycle de développement et d’industrialisation (documents, tests unitaires, intégration, fonctionnels, commentaires, versionning, etc.).
8. Industrialiser des pipelines d’analyse et de machine learning.
Les compétences
Nous recherchons une personne diplômée :
1. D’un master spécialisé en Big Data.
2. Ou d’un cycle ingénieur avec une spécialité Big Data.
Pré-requis
1. Système & DevOps : Linux, Docker, Ansible, Jenkins, AWS, Openshift.
Qualités indispensables : Curiosité, sens du partage, enthousiasme.
Vous souhaitez vous investir dans des projets innovants, faire partie d’une équipe jeune et sympathique, en perpétuelle évolution, cette mission est pour vous.
#J-18808-Ljbffr
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.