
Data Engineer H/F
- Lyon
- CDI
- Temps-plein
- Concevoir et développer des solutions de traitement de données avec les technologies Big Data (Spark Scala, PySpark, Python).
- Exploiter les outils GCP : BigQuery, Cloud Storage, Dataproc, Cloud Run, Looker Studio, etc.
- Optimiser les requêtes SQL : analyser la qualité des données, détecter et gérer les skew, maîtriser les coûts.
- Participer au refactoring et à l'évolution de projets complexes en Spark Scala.
- Gérer les branches Git : rebase, cherry-pick, gestion des conflits.
- Collaborer en équipe : co-conception, revues de code croisées, partage et bienveillance.
- SQL avancé : tableaux, structs, fonctions analytiques (windows), optimisation des requêtes.
- Spark Scala : compréhension et amélioration de code existant, ajout de fonctionnalités, refactoring.
- Git : bonne maîtrise des workflows (rebase, branches multiples, gestion des conflits).
- Impliqué, rigoureux, et orienté qualité.
- Ouvert aux discussions techniques et respectueux des contraintes.