EFG Bank AG
Geneva
Hier
Ingénieur DataOps
- Date de publication :18 octobre 2025
- Taux d'activité :100%
- Type de contrat :Durée indéterminée
- Lieu de travail :Geneva
Résumé de l'emploi
Rejoignez EFG International en tant que DataOps Engineer à Genève. Une opportunité passionnante au sein d'une banque privée dynamique.
Tâches
- Construire et optimiser des pipelines de données dans notre écosystème.
- Assurer la fiabilité et la performance des opérations de données.
- Collaborer avec des équipes pour livrer des produits de données innovants.
Compétences
- Expérience en SQL, Python, et connaissance des architectures lakehouse.
- Compétences en CI/CD et conteneurisation (Docker, Kubernetes).
- Esprit d'initiative et capacité à résoudre des problèmes.
Est-ce utile ?
À propos de cette offre
Ingénieur DataOps
Description du poste
- Département : Data Ops
- Pourcentage de travail : 100%
- Lieu : Genève
EFG International est un groupe bancaire privé mondial, offrant des services de banque privée et de gestion d'actifs. Nous servons des clients dans plus de 40 sites à travers le monde. EFG International offre un environnement de travail stimulant et dynamique et s'efforce d'être un employeur de choix.
EFG s'engage à fournir un environnement de travail équitable et inclusif fondé sur le principe du respect mutuel. Rejoindre notre équipe signifie vivre dans un environnement de soutien, où vos contributions sont valorisées et reconnues. Nous croyons fermement que la diversité de nos équipes nous donne un avantage concurrentiel en favorisant une meilleure prise de décision et une plus grande innovation.
Notre but et notre mission
Donner aux esprits entrepreneuriaux les moyens de créer de la valeur – aujourd'hui et pour l'avenir.
Nous sommes une banque privée, offrant des solutions personnalisées à l'échelle mondiale aux clients privés et institutionnels. Notre succès durable repose sur nos talents et sur la manière dont nous collaborons avec nos clients et nos communautés pour créer une valeur durable.Description du poste
Nous recherchons un Ingénieur DataOps motivé et proactif pour rejoindre notre équipe. Dans ce rôle, vous contribuerez au développement et à l'exploitation de nos deux plateformes de données les plus importantes, en assurant des opérations fiables, évolutives et efficaces des pipelines de données ainsi que la livraison des produits. Vous travaillerez en étroite collaboration avec les ingénieurs de données, les analystes et les parties prenantes métier pour exploiter et soutenir nos plateformes d'intégration de données et de lac de données en livrant en temps voulu des produits de données fiables à l'organisation.
Missions principales :
- Construire, exploiter et optimiser les pipelines de données et les flux de travail à travers notre écosystème lakehouse.
- Assurer la fiabilité, l'évolutivité et la performance des opérations de données en environnement de production.
- Collaborer avec des équipes interfonctionnelles pour livrer des produits de données permettant des insights métier et des analyses avancées.
- Mettre en œuvre et maintenir des pipelines CI/CD pour les systèmes et flux de travail de données.
- Agir en tant que résolveur de problèmes proactif et proposer de nouvelles idées pour améliorer l'architecture et les opérations de données.
- Contribuer à l'automatisation, à la documentation et déployer les bonnes pratiques en DataOps (DevOps).
- Surveiller, dépanner et améliorer continuellement les systèmes et processus de données.
- Participer à la garde
- Esprit & compétences comportementales :
- Forte motivation, curiosité et volonté d'apprendre.
- Proactif, autonome et orienté solution.
- Capacité à prendre des initiatives et à apporter de nouvelles idées.
- Compétences techniques :
- Solide connaissance de SQL (idéalement Microsoft SQL Server).
- Bonne expérience des modèles de streaming de données
- Bonne expérience de Python et des langages de script ; PySpark est un plus important.
- Bonne expérience de la containerisation (Docker, Kubernetes) et des plateformes cloud.
- Expérience avérée avec les pipelines CI/CD.
- Familiarité avec les architectures lakehouse (Delta Lake, Iceberg, …).
- Compréhension des concepts de produit de données et des pratiques modernes de gestion des données.
- Capacité à lire et comprendre Java, Camel, Talend ESB, Powershell
- Atouts :
- Expérience avec MS Fabric ou Databricks
- Expérience avec l'observabilité
- Connaissance des meilleures pratiques en gouvernance et sécurité des données.
- Familiarité avec les outils BI ou d'analyse.
- Une opportunité de travailler avec des technologies de données modernes dans un environnement collaboratif et tourné vers l'avenir.
- La capacité de façonner et d'influencer nos pratiques et notre architecture DataOps.
- Responsabilité : Prendre en charge les tâches et défis, ainsi que rechercher une amélioration continue
- Pratique : Être proactif pour livrer rapidement des résultats de haute qualité
- Passionné : Être engagé et viser l'excellence
- Orienté solution : Se concentrer sur les résultats clients et traiter les clients équitablement avec une conscience des risques
- Orienté partenariat : Promouvoir la collaboration et le travail d'équipe. Travailler ensemble avec un esprit entrepreneurial.
- Veuillez joindre une lettre de motivation à votre CV lors de la candidature.
- Si vous souhaitez postuler à ce poste, utilisez ce lien pour postuler.