Data Backend Engineer
Lausanne
Key information
- Publication date:12 December 2025
- Workload:100%
- Contract type:Permanent position
- Place of work:Lausanne
En intégrant notre département Data, vous renforcerez l'équipe en place ayant pour mission de maintenir et développer notre entrepôt de données (Data Warehouse) ainsi que notre hub de données (Data Hub).
Notre client est une société basée à Lausanne
Missions
Sur la partie Data Warehouse :
Développer et maintenir les pipelines d'alimentation (ETL/ELT) en assurant leur performance, fiabilité et documentation.
Optimiser les traitements SQL et les performances d'accès aux données.
Administrer, monitorer et faire évoluer les environnements techniques du Data Warehouse (Jobs, Scripts, Automatisations, Tableau Software).
Contribuer à la mise en place de pratiques DataOps (Versioning, déploiement automatisé).
Sur la partie Data Hub :
Concevoir et développer les flux d'intégration et d'interopérabilité entre applications via le Data Hub.
Maintenir et faire évoluer les référentiels de données (MDM).
Développer et orchestrer les interfaces d'échange de données (API, flux SQL, Services d'intégration).
Garantir la qualité, la sécurité et la traçabilité des données échangées.
Participer à l'automatisation et à la supervision des traitements d'intégration (Monitoring & Alerting).
De manière transversale :
Assurer la stabilité, la performance et la maintenabilité des plateformes de données.
Documenter les sources, processus d'alimentation et flux inter-systèmes.
Contribuer à l'amélioration continue des pratiques techniques et à la modernisation des plateformes.
Profil du candidat
Diplôme d'ingénieur en informatique (HES / EPF) ou expérience jugée équivalente.
Minimum 5 ans d'expérience dans le domaine des données, idéalement sur des environnements Data Warehouse ou Data Hub.
Expertise en SQL (optimisation, tuning, diagnostic, indexes, plans d'exécution).
Expertise en Python pour le développement de pipelines de données (ETL/ELT, API, Scheduling, gestion de librairies).
Bonnes connaissances DataOps (Versioning, Intégration et déploiement continu, Git, Orchestration).
Connaissance ou intérêt pour les frameworks de pipelines modernes (dbt, dlt) et les outils d'orchestration (ex. Airflow, Jenkins, Prefect).
Bonne connaissance des bases de données relationnelles (MSSQL, PostgreSQL, Oracle) ; Bases NoSQL un plus.
Connaissances du maintien des environnements Windows et Linux (On-premise, VM).
Connaissances en data visualisation (Tableau Software un plus).
Esprit analytique, structuré et pragmatique.
Très bonnes aptitudes relationnelles, sens de la collaboration et de l'initiative.
UN PLUS
Familiarité avec Docker / Kubernetes pour le déploiement de traitements de données
Connaissances en Data virtualisation (Denodo un plus)
Expérience dans la mise en œuvre d'architectures Data Lake / Lakehouse
Expérience dans un projet cloud
Contribution à un projet ML ou LLM
Conditions et Avantages
Flexibilité en bon environnement de travail
About the company
Lausanne
Reviews
- Management style4.3
- Salary and benefits3.8
- Career opportunities4.3
- Working atmosphere4.3