Skip to content

CDI - Data Engineer H/F

  • On-site
    • Paris, Île-de-France, France
  • IT

Job description

En tant que Data Engineer, vous serez au cœur de la construction et de l’optimisation de notre infrastructure data. Vous travaillerez en étroite collaboration avec les équipes IT et métier pour assurer la fiabilité, la scalabilité et le monitoring de notre plateforme analytique.

Vos principales responsabilités incluront :

1️. Développement et orchestration des pipelines de données

  • Développer et maintenir les pipelines d’ingestion de données en orchestrant les flux via Airflow et Fivetran.

  • Concevoir, modéliser et optimiser notre data warehouse sous Snowflake.

  • Mettre en place et maintenir des transformations de données avec dbt Core / dbt Cloud.

  • ØAutomatiser et surveiller les workflows de data ingestion et transformation.

2️. Qualité et monitoring des données

  • Mettre en place un monitoring avancé des pipelines et de la qualité des données avec Sifflet.

  • Définir et implémenter des tests de validation avec dbt pour détecter les anomalies et garantir la fiabilité des données.

  • Configurer des alertes proactives pour prévenir et diagnostiquer les erreurs de pipeline ou les écarts de qualité des données.

  • Collaborer avec les équipes métiers pour définir les indicateurs critiques de qualité et les SLA data.

3️. Optimisation FinOps et monitoring des coûts

  • Suivre et analyser l'optimisation des coûts notamment sur Snowflake, en ajustant les ressources et les requêtes pour réduire la consommation inutile.

  • Mettre en place des alertes sur la consommation excessive et proposer des ajustements pour un usage efficient.

  • Optimiser les flux de données pour équilibrer performances et coûts, en appliquant les meilleures pratiques FinOps.

4️. Gouvernance et collaboration

  • Assurer la gouvernance des données en garantissant leur qualité, accessibilité et sécurité.

  • Collaborer avec les équipes métiers pour comprendre leurs besoins et fournir des solutions adaptées.

  • Versionner et gérer le code via GitLab, en appliquant les meilleures pratiques DevOps et CI/CD.

  • Développer des scripts en Python pour le traitement et l’analyse avancée des données

Job requirements

Profil recherché

Bac+5 en informatique, data engineering ou équivalent.
3 ans minimum en data engineering, idéalement dans le secteur retail ou e-commerce.

Compétences clés

Obligatoires :

  • Maîtrise d’Airflow, Fivetran, Snowflake, dbt Core et Cloud.

  • Expérience en monitoring des pipelines et de la qualité des données.

  • Excellente connaissance de Python.

  • Bonne expérience avec GitLab et les principes CI/CD.

  • Connaissance avancée des architectures data et des bonnes pratiques en data engineering.

  • Expérience en optimisation FinOps et suivi des coûts Snowflake.

Un plus :

  • Expérience avec les ERP Cegid (ORLI, Y2).

  • Expérience avec des outils de monitoring avancés et des alertes automatisées.

  • Expérience avec des outils de visualisation de logs et d’observabilité des pipelines.

Soft Skills

  • Esprit structuré et rigoureux.

  • Autonomie et force de proposition.

  • Excellentes capacités de communication et de collaboration avec des équipes métiers et techniques.

  • Capacité à travailler dans un environnement dynamique.

Pourquoi nous rejoindre ?

  • Travailler dans une entreprise en forte croissance avec des défis techniques stimulants.

  • Évoluer dans un environnement mode/luxe dynamique et innovant.

  • Travailler avec une MDS de pointe

  • Travailler dans un environnement très agile

  • Avoir un réel impact sur la stratégie data d’une marque en pleine transformation digitale.


Conformément à la règlementation, tous nos postes sont ouverts au recrutement de travailleurs handicapés

or