euRHasi recrute pour son client un Data Engineer en CDI à Lyon.
Descriptif de l'entreprise
Notre client est une plateforme mondiale dédiée à l'achat et à la vente de pièces automobiles, exclusivement au service des distributeurs et des équipementiers. Elle garantit un inventaire complet et aide à éviter les ruptures de stock grâce à un vaste réseau mondial de fournisseurs de pièces de rechange.
L'équipe (30 personnes), composée à la fois de profils expérimentés et juniors, évolue dans une ambiance sérieuse mais conviviale, où collaboration et échanges sont au cœur du quotidien.
Nos bureaux, idéalement situés au centre de Lyon, entre Bellecour et Perrache, sont facilement accessibles en transports en commun.
Après avoir construit le socle technique de traitements des data, nous sommes dans une forte phase de développement sur tous les métiers de l’entreprise (sourcing, commerce, adv) ainsi que géographiquement.
Notre roadmap produit est riche en nouveaux use cases data/IA et implique toujours plus d’interaction avec les systèmes IT de nos fournisseurs/clients.
C’est dans cette phase de développement que nous cherchons à renforcer notre équipe data avec deux profils de Data engineer, ayant une
expertise SQL/Python.
Description du poste :
Notre stack est centrée aujourd’hui sur Snowflake (SQL) et va évoluer prochainement pour intégrer une nouveau data store fast analytics (également SQL).
La data engineer implique donc de nombreux développements SQL, couplés à quelques développements python d’ingestion/extraction de nos data.
Les missions seront les suivantes et pourront évoluer avec le temps selon notre roadmap produit et technique :
- Missions centrées sur SQL (70%)**
La plupart des missions concernent la structuration, l’évolution, le contrôle, et le maintien en conditions opérationnelles des pipelines dans nos data stores SQL (Snowflake en particulier) :
· Concevoir, implémenter et faire évoluer des modèles et traitements de données dans notre Snowflake et notre future data store fast analytics.
Mettre en place et maintenir des contrôles qualité dans notre outil de data observability Openmetadata.
Réaliser des extractions de données sur des besoins spécifiques métiers.
Documenter les créations ou l’évolution des modèles et process de traitements de données.
Apporter un support aux développeurs de notre app sur le requêtage SQL de nos bases de données
- Missions hors SQL (30%)
Ces missions consisteront à intervenir sur l’écosystème des outils connectés à nos data stores actuels et à venir, notamment :
BI : Mettre en place des POC de dashboards BI.
ETL : Concevoir et implémenter des data pipelines.
Métier : Apporter un support aux utilisateurs métier pour qualifier les problèmes data.
Notre stack data est composée de :
Data stores : Snowflake, PostgreSQL, Elasticsearch (solution fast analytics en cours de selection)
ETL : Dagster (orchestrateur + ETL), Airbyte
Outils interne : OpenMetadata (data observability), BI (Apache Superset), Admin (Streamlit)
Devops : VSCode, Github, FluxCD, Dbt, Sqitch, Kubernetes
Infra : AWS, Scaleway
Ce que nous offrons :
Nous rejoindre, c’est :
Contribuer activement à la croissance d'une start-up innovante.
Intégrer une équipe motivée et collaborative.
Vivre une expérience professionnelle stimulante et enrichissante.
Si tu souhaites participer à une aventure ambitieuse au sein d'une entreprise en pleine expansion, nous serions ravis de t’accueillir dans notre équipe