Scalesquad est une ESN, filiale du groupe Neurones IT de plus de 800 collaborateurs autour des métiers du digital et de l’IT.
Forts de 800 collaborateurs et partenaires en prestation, d'un portefeuille de plus de 250 clients, nous nous appuyons sur une expérience de plus de 30 ans de projets réussis. Nous avons pour ambition de devenir le 1er infogérant des services innovants en nous appuyant sur nos expertises autour du Cloud, des solutions d’automation, du DevOps.
Nous intervenons dans tous les domaines liés aux infrastructures : Conseil et gestion du SI, cloud, cyber sécurité, réseaux et sécurité, systèmes et applications, infrastructures clients, ingénierie de production.
Scalesquad, satellite du groupe Neurones IT, accompagne actuellement plus de 100 clients dans leurs transformations cloud, le refactoring de leurs applications et les services managés.
Nous recherchons, un architecte data capable de proposer une solution technique en adéquation avec les besoins fonctionnels exprimés.
Présentation du poste
Nous recherchons un Architecte DATA expérimenté, pour piloter la conception, l’architecture et le déploiement d’une solution de datalake répondant aux besoins stratégiques de l’entreprise. Ce datalake pourrait être déployé soit on-premises, soit sur le Cloud Azure, en fonction des contraintes techniques et économiques du projet.
Dans ce rôle, vous devrez intégrer plusieurs dimensions clés :
* La conception et la mise en œuvre d’une architecture scalable et performante,
* Le bon choix des solutions techniques adaptées (on-premises vs cloud Azure),
* La mise en place des outillages nécessaires à la collecte, la transformation, et la gouvernance des données,
* L’évaluation financière du projet, en assurant un alignement coûts-efficacité et en optimisant les budgets.
Mission
Vos principales responsabilités :
* Conception et architecture :
* Définir une architecture cible pour le datalake qui prenne en compte les spécificités techniques et économiques de chaque option (on-premises et cloud Azure).
* Conduire des études comparatives entre des solutions on-premises et cloud afin de proposer des recommandations stratégiques.
* Concevoir un système qui garantit la pérennité, la flexibilité et le niveau de sécurité requis par l’organisation.
* Mise en œuvre et gouvernance :
* Déployer le datalake en tenant compte des normes de sécurité, des besoins en gestion des données sensibles et des contraintes réglementaires (RGPD, etc.).
* Superviser l’intégration des données issues de diverses sources, leur stockage, transformation, et mise à disposition pérenne pour les utilisateurs finaux (ex : data analysts, data scientists).
* Mettre en place une gouvernance structurée : catalogage (métadonnées), gestion de la qualité, suivi du lineage et supervision des flux de données.
* Évaluation financière et maîtrise des coûts :
* Réaliser des estimations précises des coûts d’implémentation, y compris ceux inhérents aux infrastructures informatiques, licences logicielles, équipes projet et maintenance opérationnelle.
* Modéliser différents scénarios coût-performance entre une solution on-premises et cloud Azure (TCO – Total Cost of Ownership).
* Proposer des solutions pour optimiser les coûts tout en maintenant les exigences de performance et de sécurité.
* Collaboration et support :
* Collaborer avec les équipes Data, IT, Infrastructure et Sécurité pour garantir la cohérence des choix techniques et opérationnels.
* Accompagner les équipes et les parties prenantes dans la montée en compétence sur l’écosystème technologique mis en place et vous positionner comme un/une interlocuteur(trice) de référence sur le sujet.
Expertise technique requise
* Technologies de datalake :
* Expérience avec la conception et le déploiement de datalakes dans des environnements on-premises (ex : Hadoop, Cloudera, Hortonworks) et/ou cloud Azure (ex : Azure Data Lake Storage, Synapse Analytics, Databricks).
* Familiarité avec les formats de stockage de données (Parquet, ORC, Avro), ainsi que les frameworks de traitement des données, notamment Apache Spark et Flink.
* Connaissance des outils d'ingestion et transformation de données tels que Talend, Azure Data Factory ou Apache NiFi.
* Cloud et infrastructures :
* Expertise sur l'écosystème Azure : Azure SQL Database, Azure Synapse, Azure Blob Storage, Functions, Logic Apps, CosmoDB, etc.
* Maîtrise des environnements hybrides on-prem/cloud et des mécanismes de connexion aux infrastructures existantes.
* Gouvernance et sécurité :
* Outils de gouvernance et gestion des données : Data Catalog (Collibra, Azure Purview), data lineage, et suivi de la qualité des données.
* Compétences en gestion des identités et des permissions : IAM, RBAC, ACL (notamment pour Azure Active Directory).
* Compréhension et implémentation des aspects réglementaires : RGPD, anonymisation des données, chiffrement (durant le transport et au repos).
* Estimation financière et optimisation des coûts :
* Expérience dans l'analyse des modèles financiers pour des projets Data (CAPEX pour on-premises, OPEX pour le cloud).
* Expertise en bilan coûts/performances & ROI des solutions techniques choisies, en apportant un regard critique sur les budgets alloués.
* Utilisation d'outils pour calculer et monitorer les coûts sur Azure (ex : Azure Cost Management).
Aptitudes essentielles
* Approche structurée et analytique : Capacité à modéliser des solutions techniques tout en prenant en compte leurs implications financières et opérationnelles.
* Communication transverse : Savoir convaincre et expliquer les avantages/inconvénients d'une solution à différents niveaux de l'entreprise (IT, métiers, direction).
* Esprit de collaboration : Travailler en synergie avec plusieurs acteurs clés de l'organisation (équipes DevOps, Sécurité, Finance, Métier).
* Sens de la prise de décision : être capable de trancher sur des choix techniques, organisationnels ou financiers critiques pour le projet.
* Autonomie et proactivité : Vous êtes force de proposition et savez anticiper les risques ainsi que les opportunités.
Qualités requises
* Rigueur et précision : Vous êtes à l'aise avec les estimations chiffrées et leur impact sur les décisions technologiques.
* Leadership technique : Vous inspirez confiance auprès des équipes et apportez une vision claire à des problématiques complexes.
* Capacité d'adaptation : Vous naviguez aisément entre des environnements hétérogènes (on-premises et cloud).
* Vision stratégique : Vous êtes sensible à la relation entre technologie, processus et rentabilité.
* Passion pour les données : Vous êtes curieux des nouvelles tendances et pratiques dans le domaine du Big Data.
Profil
Formation : Diplôme d’ingénieur ou Master 2 en informatique, Big Data, Cloud Computing ou disciplines similaires.
Expérience :
Minimum 5 ans d'expérience dans des fonctions techniques autour de la gestion de données à grande échelle.
Expérience avérée sur au moins un projet complet de datalake, incluant une phase de comparaison entre solutions on-premises et cloud.
Certifications (un plus) :
Certifications Azure (Azure Data Engineer, Azure Solutions Architect).
Certifications Big Data (Cloudera Certified Professional, Databricks, Snowflake).
Informations utiles :
* Contrat CDI (36h30)
* Poste basé à la Défense/Nanterre
* Idéalement une intégration asap
* Client dans le secteur public
Conformément à la réglementation, tous nos postes sont ouverts au recrutement de travailleurs handicapés.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.