
Data Engineer H/F
- Paris
- CDI
- Temps-plein
- Tu conçois et développes des solutions de traitement de données avec les technologies Big Data (Spark Scala, Airflow, PySpark, Python).
- Tu exploites les outils GCP : BigQuery, Cloud Storage, Dataproc, Cloud Run, Looker Studio, etc.
- Tu optimises les requêtes SQL : analyser la qualité des données, détecter et gérer les skew, maîtriser les coûts.
- Tu participes au refactoring et à l’évolution de projets complexes en Spark Scala.
- Tu contribues activement aux initiatives FinOps pour une meilleure gestion des coûts cloud.
- Tu collabores en équipe : co-conception, revues de code croisées, partage et bienveillance.
- Techniques : Tu maîtrises SQL, GCP, GitLab CI/CD, Terraform et possèdes une expertise avancée en Scala et Spark.
- Data Engineering : Tu es expert dans le développement de solutions d'intégration de données et connais les meilleures pratiques en matière de performance et de sécurité.
- Cloud : Tu as une expérience confirmée sur GCP et ses différents services liés à la gestion et au traitement des données.
- Outils de gestion et de versioning : Tu maîtrises GitLab CI/CD et Terraform.
- Organisation et méthodes de travail : Tu connais et maîtris les outils JIRA et les méthodes agiles (Scrum, Kanban).
- Qualités personnelles : Impliqué, rigoureux, et bon communicant. Ouvert aux discussions techniques et respectueux des contraintes.
- Tu devras maîtriser des environnements techniques tels que BigQuery, Hadoop, Google Cloud Platform (GCP), Big Query, Spark, Hive, Spark/Scala etc.