D'abord qui
D'abord qui
* Vous êtes habitué à travailler aussi bien avec des méta-données qu’avec des données non-structurées. A cet effet vous maitrisez un ou plusieurs des concepts comme l’ETL, le Data mining le Machine learning, les Big data ou encore la Théorie des graphes par exemple,
* Vous maitrisez les bases de l’analyse statistique,
* Vous êtes apte à rédiger des scripts en Python et/ou R, et une connaissance d'autres langages de programmation comme Java, Scala ou SAS est un plus,
* Vous êtes familiarisé avec l’environnement Linux,
* Une expérience avec les outils de Stockage de fichiers volumineux (HDFS, Data Lake, S3, stockage Blob), la connaissance des infrastructures cloud AWS ou GCP et des bases en streaming temps réel seront aussi de réels atouts.
Ensuite quoi
Ensuite quoi
Vous serez en charge de :
* Participer à la définition des besoins et à la rédaction des User Stories,
* Collaborer avec les Data Scientists au développement des modules d’analyse de donnée,
* Concevoir et construire des architectures de données,
* Intégrer des sources de données,
* Vous assurez que les données sont facilement accessibles et que leur exploitation fonctionne comme demandé, même dans des circonstances hautement évolutives,
* Exécuter des processus ETL (extraire / transformer / charger) à partir d'ensembles de données complexes et / ou volumineux.
#LI-JH1
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.