VeoNum…Tu en a déjà entendu parler ? un peu, beaucoup, pas encore suffisamment ?
Peu importe ta réponse à la question, je te laisse poursuivre ta lecture et t'immerger dans l'environnement Human First, valeur fondamentale de l'entreprise.
VeoNum, entreprise rennaise, regroupe aujourd'hui 40 consultants dont plusieurs dotés d'un doctorat. Elle est le fruit de l'engagement de ses trois fondateurs dont les valeurs sont basées sur la bienveillance, le partage, le bien-être et l'expertise technique.
L'entreprise à taille humaine s'inscrit dans une logique de proximité en faisant preuve de convivialité et de bon sens au quotidien.
Le « Human first », notre ADN, qu'en est-il exactement ?
C'est le choix du projet sur lequel tu vas travailler, sans aucune mobilité !
C'est une formation sur mesure et adaptée à ton expertise,
C'est une bonne mutuelle, des tickets restaurant, des RTTs …
C'est une participation aux événements régionaux (DevFest, Agile Tour…) où tu vas pouvoir te nourrir d'informations sur ton métier
C'est une vraie Team où on sait aussi de temps en temps laisser le travail de côté ! (Soirées, escape game, barbecue, karting…)
L'activité de l'entreprise quant à elle s'oriente sur plusieurs axes autour desquels tu pourras évoluer, et ainsi rapidement monter en compétences entre deux projets :
La veille technologique sur les nouveaux Frameworks
Des projets réalisés pour des clients internationaux,
Rejoignez une équipe experte en MLOps et industrialisation de modèles IA !
Vous avez une solide expérience en déploiement et automatisation de pipelines ML ? Vous souhaitez travailler sur des infrastructures cloud évolutives et optimiser le cycle de vie des modèles IA ? Cette opportunité est faite pour vous !
Vos missions
Construction et optimisation de pipelines MLOps
- Développement et automatisation des pipelines d'entraînement et d'inférence
- Intégration des meilleures pratiques CI/CD pour le déploiement et la gestion des modèles
Déploiement et gestion des modèles en production
- Utilisation des outils MLFlow, Model Registry, Model Monitor pour le suivi des modèles
- Surveillance et optimisation des performances en production
Environnement technique & Cloud AWS
- Intégration avec AWS Lambda, Event Bridge, SageMaker Studio
- Gestion de l'infrastructure et du cycle de vie des modèles sur AWS
Votre Profil
✅ Formation : Ingénieur en Machine Learning, Data Science ou DevOps
✅ Expérience :5+ ans en MLOps, Data Engineering ou DevOps appliqué au ML
✅ Compétences techniques requises :
Expertise en construction de pipelines MLOps (CI/CD, monitoring, versioning)
Maîtrise des outils AWS (Lambda, SageMaker, Event Bridge, MLFlow, Model Registry, Model Monitor)
Expérience en déploiement et monitoring de modèles ML en production
Bonne compréhension des enjeux d'industrialisation des modèles IA
Soft skills : Esprit analytique, autonomie, rigueur, capacité à travailler en équipe
Si vous souhaitez industrialiser des modèles IA à grande échelle et optimiser des architectures cloud et MLOps, postulez dès maintenant !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.