EngIT est jeune société de passionnés de technologies et d'innovation en IT créée en avril 2017 à Sophia Antipolis spécialisée dans la transformation digitale et l'innovation.
Nos passions : objets connectés, IA, big data, deep learning, véhicule autonome, réalité augmentée, UX, logiciel embarqué, cyber sécurité, blockchain, cloud
Notre conviction : l'innovation IT n'a de sens que si elle contribue à rendre le mode meilleur, meilleur pour nos clients en contribuant à leur performance, meilleur pour chacun par des services et des matériels plus utiles, plus ergonomiques, plus intuitifs et plus pratiques a utiliser au quotidien.
engIT c'est aussi un modèle d'entreprise unique par la combinaison d'une société de service du numérique, d'une startup factory et de l'engIT'lab.
Nous fournissons de l'expertise technologique en IT à nos clients, grands comptes ou startups en les conseillant sur l'adoption de technologies innovantes, en les supportant dans leurs projets de R&D et en leur permettant de passer d'une idée à une mise en oeuvre opérationnelle efficiente.
Dans la startup factory nous développons des startups sur des solutions innovantes, des phases expérimentales jusqu'à la concrétisation d'une spinoff (deux projets portés sur le marché à ce jours, plusieurs encore en incubation).
Enfin l'engIT'lab est un lieu dédié à l'apprentissage, à l'expérimentation de solutions technologiques, à la contribution à des projets open-source, et l'éclosion de projets de nos salariés.
Envie de rejoindre l'aventure ? Nous recherchons un expert BIG QUERY pour mettre en place une gouvernance Big Query et des bonnes pratiques d'usage et optimiser les projets existants avec les équipes de dev.
La mission :
Vous êtes garant de l'accès qualitatif aux sources de données.
Vous vous assurez de la maîtrise de la donnée et êtes le garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists).
Vous contribuez également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer.
Votre périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT,
Vous assurez la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifiez la qualité des données qui entrent dans le Data Lake
Pour cela vous devez :
- Connaître l'architecture et les features natives de BigQuery + avancées (QUOTAS, SLOTS, BI ENGINE)
- Produire des requêtes maintenables, lisibles et optimisées
- Optimiser les requêtes lors du traitement de vastes volumes de données. Être en mesure de surveiller et de promouvoir les bonnes pratiques lorsqu'il y a de grands volumes de données
- Gérer les différents modèles de facturation disponibles pour BigQuery et être capable d'expliquer à tout moment la consommation et les coûts par projet.
- Définir et communiquer sur les bonnes pratiques d'utilisation afin que les utilisateurs puissent exploiter pleinement le potentiel de BigQuery pour obtenir des insights précieux à partir de leurs données et prendre des décisions éclairées.
- Diffuser les bonnes pratiques afin de rendre les données compréhensibles et facilement accessibles.
En cliquant sur "JE DÉPOSE MON CV", vous acceptez nos CGU et déclarez avoir pris connaissance de la politique de protection des données du site jobijoba.com.