Mission :
- Concevoir et maintenir des pipelines de données (Airflow)
- Développer des solutions Spark/Scala pour le traitement de données à grande échelle
- Optimiser les modèles de données sur Snowflake avec DBT
Profil recherché :
- 2+ ans d'expérience Airflow/Spark/Scala
- Maîtrise de Snowflake & DBT
- Expérience en modélisation de données
- Soft Skills : Autonomie, rigueur documentaire