DataOps Ingenieur
Efg Bank Ag
Geneva, Switzerland
1 month ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
GermanJob location
Geneva, Switzerland
Tech stack
Java
Business Analytics Applications
Continuous Integration
Data Architecture
Data Governance
Data Systems
DevOps
Python
Microsoft SQL Server
Powershell
DataOps
SQL Databases
Data Streaming
Talend
Cloud Platform System
Containerization
Data Lake
PySpark
Script Language
Kubernetes
Docker
Databricks
Job description
- Aufbau, Betrieb und Optimierung von Datenpipelines und Workflows in unserem Lakehouse-Ökosystem.
- Sicherstellung der Zuverlässigkeit, Skalierbarkeit und Leistung der Datenoperationen in Produktionsumgebungen.
- Zusammenarbeit mit funktionsübergreifenden Teams zur Bereitstellung von Datenprodukten, die Geschäftseinblicke und erweiterte Analysen ermöglichen.
- Implementierung und Wartung von CI/CD-Pipelines für Datensysteme und Workflows.
- Proaktives Problemlösen und Vorschlagen neuer Ideen zur Verbesserung der Datenarchitektur und -operationen.
- Beitrag zur Automatisierung, Dokumentation und Umsetzung bewährter Praktiken in DataOps (DevOps).
- Überwachung, Fehlerbehebung und kontinuierliche Verbesserung von Datensystemen und -prozessen.
- Teilnahme an Bereitschaftsdiensten
- Mindset & Soft Skills
Requirements
- Starke Motivation, Neugier und Lernbereitschaft.
- Proaktiv, eigenständig und lösungsorientiert.
- Fähigkeit, Initiative zu ergreifen und neue Ideen einzubringen.
- Technische Fähigkeiten:
- Fundierte Kenntnisse in SQL (idealerweise Microsoft SQL Server).
- Gute Erfahrung mit Daten-Streaming-Patterns
- Gute Erfahrung mit Python und Skriptsprachen; PySpark ist ein großer Vorteil.
- Gute Erfahrung mit Containerisierung (Docker, Kubernetes) und Cloud-Plattformen.
- Nachgewiesene Erfahrung mit CI/CD-Pipelines.
- Vertrautheit mit Lakehouse-Architekturen (Delta Lake, Iceberg, ...).
- Verständnis von Data Product-Konzepten und modernen Datenmanagementpraktiken.
- Fähigkeit, Java, Camel, Talend ESB, Powershell zu lesen und zu verstehen
- Wünschenswert
- Erfahrung mit MS Fabric oder Databricks
- Erfahrung mit Observability
- Kenntnisse in Data Governance und Sicherheitsbest Practices.
- Vertrautheit mit BI- oder Analysetools.
- Eine Gelegenheit, mit modernen Datentechnologien in einem kollaborativen und zukunftsorientierten Umfeld zu arbeiten.
- Die Möglichkeit, unsere DataOps-Praktiken und Architektur mitzugestalten und zu beeinflussen.
- Verantwortung: Übernahme von Aufgaben und Herausforderungen sowie Streben nach kontinuierlicher Verbesserung
- Hands-on: Proaktives Handeln zur schnellen Lieferung hochwertiger Ergebnisse
- Leidenschaftlich: Engagement und Streben nach Exzellenz
- Lösungsorientiert: Fokus auf Kundenergebnisse und faire Behandlung der Kunden mit risikobewusstem Denken
- Partnerschaftlich: Förderung von Zusammenarbeit und Teamarbeit. Gemeinsames Arbeiten mit unternehmerischem Geist.
About the company
EFG International ist eine globale Privatbankengruppe, die Privatbank- und Vermögensverwaltungsdienstleistungen anbietet. Wir betreuen Kunden an über 40 Standorten weltweit. EFG International bietet ein anregendes und dynamisches Arbeitsumfeld und strebt danach, ein bevorzugter Arbeitgeber zu sein.
EFG verpflichtet sich, ein gerechtes und inklusives Arbeitsumfeld zu schaffen, das auf dem Prinzip des gegenseitigen Respekts basiert. Der Beitritt zu unserem Team bedeutet, ein unterstützendes Umfeld zu erleben, in dem Ihre Beiträge geschätzt und anerkannt werden. Wir sind fest davon überzeugt, dass die Vielfalt unserer Teams uns einen Wettbewerbsvorteil verschafft, indem sie bessere Entscheidungen und größere Innovationen fördert.
Unser Zweck und unsere Mission
Unternehmerische Köpfe befähigen, Wert zu schaffen - heute und für die Zukunft.
Wir sind eine Privatbank, die personalisierte Lösungen auf globaler Ebene für private und institutionelle Kunden anbietet. Unser nachhaltiger Erfolg basiert auf unseren Talenten und darauf, wie wir mit unseren Kunden und Gemeinschaften zusammenarbeiten, um dauerhaften Wert zu schaffen.Stellenbeschreibung
Wir suchen einen motivierten und proaktiven DataOps Ingenieur zur Verstärkung unseres Teams. In dieser Rolle tragen Sie zur Entwicklung und zum Betrieb unserer zwei wichtigsten Datenplattformen bei und stellen zuverlässige, skalierbare und effiziente Datenpipeline-Operationen sowie Produktlieferungen sicher. Sie arbeiten eng mit Dateningenieuren, Analysten und Geschäftsinteressenten zusammen, um unsere Datenintegrations- und Data Lakehouse-Plattformen zu betreiben und zu unterstützen, indem Sie vertrauenswürdige Datenprodukte zeitgerecht an die Organisation liefern.