Tu as la tête dans les données et les pieds sur le cloud ? Viens nous rejoindre ! ☁️
Si tu adores plonger dans les montagnes de données, créer des modèles intelligents et utiliser GCP pour donner vie à des solutions data de demain, cette offre est faite pour toi ! On recherche un(e) Data Scientist / ML Engineer passionné(e) pour faire partie d’une équipe dynamique, innovante et super sympa.
Qui sommes-nous ?
On est une équipe de techs qui ne se contente pas de suivre les tendances, on les crée ! Notre but ? Utiliser les puissantes capacités de GCP pour transformer des données brutes en insights précieux et des modèles AI/ML qui changent la donne. Et surtout, on le fait dans une ambiance fun et décontractée.
Ce que tu vas faire :
Explorer et analyser des données massives !
Tu travailleras sur des datasets géants, tu feras parler les données pour en extraire des insights pertinents et tu mettras au point des modèles prédictifs qui font la différence.
Développer des modèles AI/ML à couper le souffle !
De la mise en place de modèles de machine learning jusqu’à l’optimisation des performances sur GCP, tu seras responsable de la création de solutions scalables et intelligentes. TensorFlow, PyTorch, BigQuery, Vertex AI, tu seras un(e) pro des outils GCP !
⚡ Collaborer et innover avec des experts !
Ici, on ne travaille pas seul(e). Tu feras partie d’une équipe soudée, prête à échanger des idées, à tester des approches innovantes et à apprendre tous les jours. Ensemble, on pousse la tech plus loin.
Mettre en place des solutions GCP de A à Z !
Grâce à GCP (BigQuery, DataFlow, Dataproc, AI Platform, etc.), tu vas créer des pipelines de données performants et scalable, tout en garantissant une qualité irréprochable des données et des résultats.
Ce qu’on attend de toi :
* Expertise en Data Science et Machine Learning : tu as de solides compétences en analyse de données, en création de modèles ML (supervisés, non supervisés, deep learning) et tu maîtrises les outils GCP dédiés à la data (BigQuery, Vertex AI, Dataflow, etc.).
* Langages de programmation : Python est ton ami de tous les jours, mais tu peux aussi jongler avec d’autres langages comme R, Java ou Scala.
* Expérience avec les pipelines de données : tu sais construire des workflows ETL/ELT, et tu maîtrises l’automatisation des tâches data.
* Culture GCP : tu es à l’aise avec les services GCP pour gérer des données massives et déployer des modèles AI/ML à grande échelle.
* Un plus ? Si tu as une expérience avec les outils comme TensorFlow, Keras, PyTorch ou des frameworks d'optimisation, c’est top !
Ce qu’on t’offre :
* Un environnement flexible et hybride : tu choisis où tu travailles ! Que ce soit à distance ou dans nos bureaux cool, l’important c’est de se sentir bien.
* Des projets excitants et variés : des challenges techniques à la hauteur de ta créativité, des solutions innovantes à développer et des data sets qui ne demandent qu’à être explorés.
* Une équipe super sympa et dynamique : on bosse ensemble, on apprend ensemble, on grandit ensemble. Et on s'amuse bien aussi !
* Des avantages pour te chouchouter : tickets resto, mutuelle premium, formations continues et autres petits plaisirs pour que tu sois toujours au top.
Tu as envie de transformer les données en super-pouvoirs ? Envoie-nous ton CV ou même un message cool pour entamer la discussion !
On a hâte de te rencontrer !
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.