La description

🛠 Compétences techniques attendues :

- Expérience pratique et approfondie du travail avec Google Cloud Platform. 

- Expérience dans le développement en Python. 

- Expérience en matière de développement d'API. Une bonne connaissance de FastAPI est requise. 

- Expérience en matière de Docker. 

- Compétences en conception de solutions E2E 

- Prototypage, test. 

- Expérience en gestion de bases de données (bases de données relationnelles & ; bases de données NoSQL). 

- Expérience en SQL 

- Expérience en orchestration de pipeline de données. Une bonne connaissance d'Airflow est requise. 

- Expérience en matière de Kafka. 

- Expérience en matière de gouvernance des données. 

- Expérience en CI/CD . Une connaissance de Github & ; des actions Github est requise. 

- La maîtrise de l'anglais est requise.

 

🎯Mission

 

Dans le cadre du développement d'un service de machine learning en production, nous souhaitons mettre en place une équipe pluridisciplinaire pour développer une solution numérique efficace dans un contexte de plateforme. Avec l'équipe développement, vous mettrez en œuvre et partagerez les meilleures pratiques sur les activités d'ingénierie des données.

 

En tant qu'ingénieur Data, vos responsabilités sont les suivantes : 

• Travaillez avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant un éventail de technologies nouvelles et émergentes de la plateforme Google Cloud. 

• Travailler avec des techniques Agile et DevOps et des approches de mise en œuvre dans la livraison. 

• Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. 

• Orchestrer des pipelines de données. 

• Gérer la qualité des données. 

• Concevoir et documenter l'API qui prend en charge les produits d'IA. 

• Travailler en étroite collaboration avec les scientifiques des données, l'ingénieur ML, DevOps/SRE.


🔎 Profil :

Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise des données et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique des données et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT. Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake.
 

💼 Univers de travail :

  • TJM : 520€ pour vous
  • Disponibilité : Dès que possible
  • Télétravail : possible

La vie à Keytech Freelance Partner