RCA est un éditeur de logiciel depuis plus de 20 ans.
Notre entreprise développe 2 gammes : - Des logiciels à destination des cabinets d'expertise comptable - Une plateforme digitale collaborative destinée aux experts-comptables ainsi qu'à leurs clients TPE/PME
100% indépendante et 100% Nantaise, notre entreprise réalise à ce jour un chiffre d'affaires de 21 millions d'euros.
Il y a environ 10 ans, nous étions 3, aujourd'hui, nous sommes plus de 200 collaborateurs.
Description du poste
TES MISSIONS : intégré dans une équipe data composé d'une douzaine de personnes, tu participes à la création de solution internes, mais aussi à destination de nos clients. En collaboration avec les data analyst et nos équipes de développements, tes missions sont les suivantes : * Déploiement de pipeline de données. * Traitement de données en mode batch, et mise en place du flux continu. * Dockerisation en Python. * Mettre en place des pipelines ETL. * Accompagner les data analyst en leurs fournissant les bon environnements et le bonnes pratiques pour utiliser nos données. * Tu es référent dans le choix et la mise en ?uvre des architectures Data. * Tu participes à la définition de la roadmap data avec l'ensemble de l'équipe. * Tu développes des infrastructures data en utilisant des outils IaC (Terraform) dans un contexte AWS/Snowflake et fusionne dans des CI/CD. * Tu conçois et mets-en ?uvre des pipelines de données pour répondre aux besoins des utilisateurs RCA et de ses clients. * Tu épaules nos Data Analysts et nos PO/PM dans la réalisation de leurs missions.
CE QUE NOUS TE PROPOSONS * Une stack technique très récente et innovante * De nombreux sujets à explorer (Architecture évènementielle, Cloud, Machine Learning, Data as a Service, .) * Un cadre de travail adapté (locaux modernes, jusqu'à 3 jours de télétravail, horaires flexibles, 5 jours de RTT, lundi de pentecôte et jour anniversaire offerts .) * Et aussi d'autres avantages : team building, participation, chèques cadeaux, titres restaurants .
NOTRE STACK TECHNIQUE * ELT : Airflow / DBT / Kafka * Dev : Python (Poetry, Pytest, Black, .), SQL, Gitlab CI * Cloud : AWS (IAM, S3, EKS, ECS, RDS, MSK, DMS, .) * Stockage : Snowflake (Administration, RBAC, ingestion, .), Postgres * BI / Reporting : Holistics, Thoughtspot
Qualifications
TU ES LE CANDIDAT IDÉAL SI : * Tu es reconnu-e par tes pairs pour tes compétences data que tu as pu mettre en oeuvre sur de nombreux projets * Les pipelines d'ingestion et préparation de données n'ont plus de secrets pour toi * Pragmatique, tu es soucieux-se de la réalisation et de la qualité du travail tout en veillant au respect des priorités. * Bon-ne communicant-e, tu aimes les échanges simples et bienveillants, et tu cherches toujours à challenger tes idées et tes méthodes de travail avec celles des autres. * Tu es proactif-ve au quotidien et souhaites t'impliquer dans la construction d'une équipe et de ses pratiques
Statut : Employé qualifié
Source : PMEjob.fr.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.