Scalesquad est une ESN, filiale du groupe Neurones IT de plus de 800 collaborateurs autour des métiers du digital et de l’IT.
Forts de 800 collaborateurs et partenaires en prestation, d'un portefeuille de plus de 250 clients, nous nous appuyons sur une expérience de plus de 30 ans de projets réussis. Nous recherchons, un architecte data capable de proposer une solution technique en adéquation avec les besoins fonctionnels exprimés.
Nous recherchons un Architecte DATA expérimenté, pour piloter la conception, l’architecture et le déploiement d’une solution de datalake répondant aux besoins stratégiques de l’entreprise. Ce datalake pourrait être déployé soit on-premises, soit sur le Cloud Azure, en fonction des contraintes techniques et économiques du projet.
La conception et la mise en œuvre d’une architecture scalable et performante,
Le bon choix des solutions techniques adaptées (on-premises vs cloud Azure),
La mise en place des outillages nécessaires à la collecte, la transformation, et la gouvernance des données,
L’évaluation financière du projet, en assurant un alignement coûts-efficacité et en optimisant les budgets.
Conception et architecture :
Définir une architecture cible pour le datalake qui prenne en compte les spécificités techniques et économiques de chaque option (on-premises et cloud Azure).
Déployer le datalake en tenant compte des normes de sécurité, des besoins en gestion des données sensibles et des contraintes réglementaires (RGPD, etc.).
Superviser l’intégration des données issues de diverses sources, leur stockage, transformation, et mise à disposition pérenne pour les utilisateurs finaux (ex : data analysts, data scientists).
Mettre en place une gouvernance structurée : catalogage (métadonnées), gestion de la qualité, suivi du lineage et supervision des flux de données.
Réaliser des estimations précises des coûts d’implémentation, y compris ceux inhérents aux infrastructures informatiques, licences logicielles, équipes projet et maintenance opérationnelle.
Collaborer avec les équipes Data, IT, Infrastructure et Sécurité pour garantir la cohérence des choix techniques et opérationnels.
Expertise technique requise
Expérience avec la conception et le déploiement de datalakes dans des environnements on-premises (ex : Hadoop, Cloudera, Hortonworks) et/ou cloud Azure (ex : Azure Data Lake Storage, Synapse Analytics, Databricks).
Familiarité avec les formats de stockage de données (Parquet, ORC, Avro), ainsi que les frameworks de traitement des données, notamment Apache Spark et Flink.
Connaissance des outils d'ingestion et transformation de données tels que Talend, Azure Data Factory ou Apache NiFi.
Expertise sur l'écosystème Azure : Azure SQL Database, Azure Synapse, Azure Blob Storage, Functions, Logic Apps, CosmoDB, etc.
Outils de gouvernance et gestion des données : Data Catalog (Collibra, Azure Purview), data lineage, et suivi de la qualité des données.
Compréhension et implémentation des aspects réglementaires : RGPD, anonymisation des données, chiffrement (durant le transport et au repos).
Expérience dans l'analyse des modèles financiers pour des projets Data (CAPEX pour on-premises, OPEX pour le cloud).
Expertise en bilan coûts/performances & ROI des solutions techniques choisies, en apportant un regard critique sur les budgets alloués.
Approche structurée et analytique : Capacité à modéliser des solutions techniques tout en prenant en compte leurs implications financières et opérationnelles.
Communication transverse : Savoir convaincre et expliquer les avantages/inconvénients d'une solution à différents niveaux de l'entreprise (IT, métiers, direction).
Sens de la prise de décision : être capable de trancher sur des choix techniques, organisationnels ou financiers critiques pour le projet.
Leadership technique : Vous inspirez confiance auprès des équipes et apportez une vision claire à des problématiques complexes.
Passion pour les données : Vous êtes curieux des nouvelles tendances et pratiques dans le domaine du Big Data.
Formation : Diplôme d’ingénieur ou Master 2 en informatique, Big Data, Cloud Computing ou disciplines similaires.
Minimum 5 ans d'expérience dans des fonctions techniques autour de la gestion de données à grande échelle.
Expérience avérée sur au moins un projet complet de datalake, incluant une phase de comparaison entre solutions on-premises et cloud.
Certifications Azure (Azure Data Engineer, Azure Solutions Architect).
Certifications Big Data (Cloudera Certified Professional, Databricks, Snowflake).
Informations utiles :
Contrat CDI (36h30)
Client dans le secteur public
Conformément à la réglementation, tous nos postes sont ouverts au recrutement de travailleurs handicapés.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.