Filiale du Groupe EDF, Datanumia est une société éditrice de logiciel SAAS spécialisée dans la valorisation de la donnée énergétique et considérée comme l’un des leaders du secteur en Europe.
Au quotidien, ce ne sont pas moins de 240 collaborateurs qui évoluent dans un écosystème innovant - mêlant IA, machine learning et IoT – et donnent du sens à notre raison d’être : permettre à chacun d’optimiser sa consommation d’énergie et son empreinte carbone en révélant tout le potentiel de la data.
Plus de 20 millions de particuliers et 70 000 professionnels du tertiaire, de l’industrie et des collectivités bénéficient ainsi de solutions digitales innovantes (portail web, application…) aux fonctionnalités avancées : suivi multi-fluides, répartition des usages, alertes en cas de dépassement de seuil ou encore plan d’actions d’économies d’énergie, les utilisateurs ont toutes les clés en main pour consommer moins, et mieux.
Au sein de laDSI, vous rejoindrezl’équipe Plateformequi a la charge de fournir une plateforme de service Cloud basée sur AWS à l’état de l’art que nos équipes solutions pourront consommer à la demande dans une logique GitOps.
Au sein de cette équipe de passionnés, vous serez garant de la stabilité de notre infrastructure afin de rendre le meilleur service à nos clients. Votre but sera d’améliorer la fiabilité, les performances, la scalabilité et la sécurité de notre plateforme ainsi que d’automatiser au maximum afin de suivre la croissance de l’entreprise et le développement de nos produits.
Vous travaillerez sur des projets complexes et innovants vous permettant d’utiliser les dernières technologies de pointe dans un culture Agile et DevOps.
Missions principales :
· RUN :
o Maintien en Condition Opérationnelle (MCO) : Assurer la disponibilité continue de la plateforme et de ses services via mises à jour régulières.
o Observabilité : Gérer des outils de surveillance, monitoring et alerting (Grafana, Prometheus, ELK, Dynatrace, Datadog, CloudWatch) pour une visibilité complète du système.
o Support & Résolution des Incidents : Gérer efficacement les incidents. Utilisation d’outils comme Rundeck pour les opérations.
· BUILD :
o Amélioration Continue : Optimiser la plateforme, les services et les outils existants pour en garantir l’efficacité.
o Automatisation : Utiliser Terraform (IaC) et Ansible (CaC) pour automatiser et optimiser le déploiement et la gestion des applications.
o Administration et Gestion des Systèmes : Superviser, configurer et gérer les services AWS (EC2, RDS, S3, IAM, VPC…) et l’administration système sous Linux.
o Distribution de Services : Développer des services et outils pour rendre les autres équipes autonomes, en fournissant ressources et formations.
o Représentation et Valorisation : Promouvoir les réalisations de l’équipe Ops et renforcer la visibilité et la communication interne.
Compétences techniques :
· Infrastructure et Configuration as Code : Maîtrise en Terraform et Ansible.
· SysOps : Expérience avec les services AWS et administration système sous Linux.
· Observabilité : Maîtrise des outils de surveillance et de monitoring (ELK, Grafana, Prometheus, Dynatrace, Datadog, CloudWatch).
· Conteneurs : Gestion des conteneurs (Kubernetes, EKS, OKD) et des images Docker.
· Automatisation : Compétences en Jenkins et GitLab CI pour les chaînes d’automatisation.
· Réseaux : Compréhension des principes de réseaux (DNS, VPC, TGW, Firewall, Proxy, Load Balancing, Adressage IP…)
· Landing Zone : Gestion de landing zone multicomptes.
· SecOps : Mise en œuvre des meilleures pratiques de sécurité sur AWS.
· FinOps : Analyse et optimisation des coûts d’utilisation des services AWS.
Projets en cours et à venir
· Migration OpenShift (OKD) vers Amazon EKS : Transition de notre infrastructure pour améliorer la gestion des livraisons et des produits.
· Centralisation des logs : Mise en place d’un système de centralisation des logs pour une meilleure gestion et analyse des données
· Gestion des alertes : Amélioration des systèmes d’alertes pour une détection et une réponse rapide aux incidents
· Amélioration des pipelines de livraisons : Optimisation des pipelines de CI/CD pour des déploiements plus rapides et plus fiables
· Construction d’environnements : Création et maintenance d’environnements de développement, de test et de production.
· Au moins 5 ans d’expérience dans un rôle Ops/DevOps.
· Culture DevOps et GitOps : Engagement envers l’amélioration continue et l’automatisation.
· Engagement et proactivité : Pour atteindre les engagements de l’équipe.
· Abstraction et prise de hauteur : Comprendre les besoins globaux et abstraire les problématiques techniques.
· Résolution de problèmes et gestion de projet : Compétences en résolution de projets et gestion de projets technique
· Passion et partage : Enthousiasme pour la technologie et désir de partager les connaissances.
· Autonomie et auto-apprentissage : Capacité à travailler de manière indépendante et à chercher l’information.
· Adaptabilité : Capacité à apprendre rapidement et à s’adapter rapidement aux changements et aux nouvelles technologies.
· Communication et collaboration : Travail en équipe, transparence et partage de l’information.
Dans le groupe EDF et chez Datanumia, accueillir des personnes en situation de handicap fait partie de notre ADN. Notre objectif est d’ouvrir nos portes à toutes les compétences, toutes les énergies et toutes les personnalités sans exclusion. Le poste proposé est donc ouvert à toutes et à tous.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.