Nous recherchons un expert en Apache Flink pour le développement, la maintenance, l’optimisation et la résolution de problèmes liés aux applications Flink. Le candidat idéal aura une solide expertise dans le traitement de flux et le traitement par lots avec Apache Flink, ainsi que des compétences en programmation Java ou Scala. Une expérience avec d'autres technologies Big Data telles que Hadoop et Spark serait un plus.
Responsabilités
- Développer et maintenir des applications Apache Flink pour le traitement de flux et par lots.
- Optimiser les performances des pipelines Flink et garantir leur scalabilité.
- Troubleshooter et résoudre les problèmes techniques liés aux applications
Compétences requises
- Expertise en Apache Flink.
- Compétences avancées en Java, Scala, et SQL.
- Connaissance du traitement de flux et par lots.
- Expérience avec des technologies Big Data comme Hadoop et Spark.
Livrables
1. Développement et déploiement d’applications Flink
- Développement d’un ensemble fonctionnel d’applications Flink pour le traitement par lots et en temps réel, intégrées aux sources de données nécessaires.
2. Optimisation des performances
- Livraison de pipelines Flink optimisés, tunés pour la performance et l’efficacité des ressources, avec des rapports et benchmarks sur les améliorations effectuées.
3. Mise en place d’un cluster Flink
- Déploiement et configuration d’un cluster Flink prêt pour la production, en assurant la scalabilité et la tolérance aux pannes.
4. Surveillance et alertes
- Mise en place d’un système de surveillance (e.g., Prometheus, Grafana) pour suivre la performance des applications et configuration des alertes pour les problèmes critiques.
5. Résolution des problèmes
- Fourniture de rapports sur les problèmes identifiés et résolus, y compris les goulets d’étranglement de performance et les échecs de tâches.
6. Documentation
- Remise d’une documentation détaillée sur l’architecture des applications, l’optimisation des performances, les procédures de dépannage et les meilleures pratiques opérationnelles.
7. Transfert de connaissances final
- Organisation d’une session finale de transfert de connaissances pour garantir que l’équipe interne soit totalement capable de maintenir et d’étendre la configuration Flink mise en place.
Travailler en étroite collaboration avec les équipes, les architectes et l'équipe produit, pour identifier, comprendre, éditer et mettre en œuvre les bonnes pratiques de développement autour de Kafka et Kafka Stream
Accompagner les développeurs dans le développement de cas d’usage autour de Kafka et Kafka Stream, surtout sur une stack Java/spring boot
Apporter une expertise sur la gestion d’incident et de performance autour Kafka et Kafka Stream
Les responsabilités principales du collaborateur.trice sont les suivantes :
Promouvoir des patterns d’architecture de type évènementiel / réactif.
Participation aux évolutions d'architectures pour répondre aux nouveaux besoins
REDOPUS est une société de conseil créée en 2017. Nous offrons à nos clients des services et solutions afin de répondre à leur problématique d'infrastructures. L'expertise en sécurité et réseau informatique est le fondement même de REDOPUS.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.