SoyHuCe - Le centre d’excellence opérationnel en Data / IA et Web de JAKALANos équipes combinent les expertises nécessaires à la création de solution data clé-en-main : collecte, traitement, analyse, algorithmie, exploitation, intégration et UX/UI.Elles répondent ainsi à des cas d’usage variés, dans de multiples secteurs : retail, énergie, loisirs, industrie, assurance, secteur publique, santé….En pratique elles sont principalement basées à Paris et Caen et s’organisent en 3 tribus :Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacité d’industrialisation ; en lead sur les projets R&DLa Digital Factory : intégration des innovations dans des solutions web / app et mise à l’échelle auprès des utilisateursLe Customer Success : accompagnement fonctionnel et gestion de projetsEn interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante.Opportunités de carrière stimulantesRejoindre JAKALA en France, c’est bénéficier du meilleur des deux mondes : l’agilité et l’impact d’une scale-up, tout en s’appuyant sur la solidité d’un leader européen. Vous aurez l’opportunité de travailler sur des projets ambitieux et innovants, aux côtés d’experts reconnus, avec l’appui de partenariats technologiques de premier plan.Les valeurs qui guident les #Jakalers Embrace Data – Make it count – Grow Together – Deliver our best – Be Purpose DrivenNous sommes engagés ! Pour le bien-être de chacun, pour construire des relations durables avec nos écosystèmes, pour enrichir et partager nos expertises.Engagés dans l'inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptées et accessibles à tous.Engagés pour le bien-être au travail, nous sommes convaincus que des équipes épanouies, dans un environnement respectueux et équilibré, sont la clé de la réussite.Descriptif du posteAu sein de notre Data Lab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à leur évolution.A cet effet, tu es en charge de :Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clientsComprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internesDéfinir l’architecture logiciel ETL / ELT en collaboration avec tes pairsTravailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)Rédiger de la documentation technique (diagrammes UML, documentation d’API, …),Partager ton savoir-faire avec les différents membres de l’équipeConcevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateformeConcevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big DataAssurer une veille technologique et savoir mener à bien un projet de R&DTu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :Cartographier des données et des flux de donnéesImplémenter des algorithmes d’analyse de données pour l’industrialisationCollecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)Développer et automatiser des flux de données et leurs visualisations en dashboards, reportingS’assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateformeAnalyser les données web pour répondre aux questions métiers et participer à la construction de l’architecture Big DataMettre en place du séquencement et de la supervision des flux précitées en gérant les cas limitesCompétences attendues Bon niveau en développement :De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)De script ELT : DBT (ex. Snowflake, PostgreSQL)Connaissance conception et administration d’entrepôt de données : Snowflake, Big Query, PostgreSQLLakeHouse : Delta LakeConnaissance message broker : RabbitMQ, KafkaCompétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)Expérience d’architecture et de dimensionnement d’une architecture cloud via des services managésCartographie des donnéesProfil recherchéDiplômé·e d’études supérieures dans le système d’information, computer sciences, big data (école d’ingénieurs, école spécialisée ou équivalent universitaire), tu justifies d’au moins 5 ans d'expérience en Data engineering.Tu as une expertise reconnue sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d’applications en passant par le traitement.La maîtrise de l’anglais est appréciée.Certification·s indispensable·s : GCP Professionnal Data Engineer OU Azure Data Engineer Associate OU AWS Solution Architect.Tu es passionné·e par votre métier et tu aimes le partager.Les avantagesEntreprise en plein développement, véritable tremplin et accélérateur de progressionProjets et missions sur des champs techniques très variésMise en situation de responsabilité rapidementBureau en plein centre de Paris et de CaenTélétravail possible jusqu’à 3 jours par semaineMutuelle d’entreprise50% de frais de participation pour les transportsTicket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur)ContratPoste à pourvoir en CDIRémunération selon profil et expériencePoste ouvert aux personnes en situation de handicapProcess de recrutement Une pré-qualification avec notre Talent AcquisitionUn entretien avec un Référent Technique MétierUn challenge technique au travers d’un cas d'usage personnaliséUn dernier entretien avec notre CEO
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.