Data Engineer
SBB CFF FFS
Muri bei Bern, Switzerland
2 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
GermanJob location
Muri bei Bern, Switzerland
Tech stack
Data analysis
Continuous Integration
ETL
Data Transformation
DevOps
Python
Metadata
Openshift
SQL Databases
Snowflake
Containerization
Kubernetes
Docker
Job description
- Entwicklung und Betrieb von Datenpipelines auf Snowflake.
- Erschließung von Datenquellen und Konzeption stabiler Integrationsprozesse.
- Transformation von Datenformaten in nachhaltige Strukturen und Modelle., * Du entwickelst und betreibst Datenpipelines sowie skalierbare Datenprodukte auf einer cloudbasierten Analytics Plattform basierend auf Snowflake und leistest damit einen direkten Beitrag zu datenbasierten Entscheidungen bei SBB Energie und zur sicheren Stromversorgung des Bahnnetzes.
- Du erschliesst Datenquellen und konzipierst stabile Datenintegrationsprozesse in enger Zusammenarbeit mit Data Scientists und Data Analysts, sodass du robuste und nachvollziehbare Datenflüsse sicherstellst.
- Verschiedene Datenformate transformierst du in nachhaltige Strukturen und Modelle und bereitest die Daten so auf, dass hochwertige und wiederverwendbare Datenprodukte entstehen.
- Bei den Metadaten und Dokumentation stellst du Transparenz sicher, indem du Datensätze, Datenprodukte und Definitionen verständlich beschreibst sowie Datenherkunft und Datenqualität sichtbar machst.
- Du übernimmst neue Aufgaben und unterstützt Kolleginnen und Kollegen über deinen Aufgabenbereich hinaus, wodurch du den gemeinsamen Erfolg des Teams stärkst.
Requirements
- Mehrjährige Erfahrung in der Entwicklung von Datenpipelines mit Python.
- Kenntnisse in DevOps-Methoden und CI/CD-Praktiken.
- Erfahrung in containerisierten Umgebungen mit Docker und Kubernetes., * Dank deinem selbständigen und initiativen arbeiten mit ausgeprägter Teamorientierung, übernimmst du Verantwortung um Veränderungen aktiv mitzugestalten.
- Du hast mehrjährige Erfahrung in der Entwicklung von Datenpipelines mit Python und in der Datentransformation mit dbt und fühlst dich im modernen Data Tech Stack zuhause.
- Du bringst Erfahrung mit DevOps-Methoden und etablierten CI oder CD Praktiken, mit denen du zuverlässige Deployments sicherstellst.
- Fundierte Praxis in Data Modelling sowie ETL oder ELT und im Umgang mit SQL zeichnet dich aus, sodass du datenbasierte Lösungen effizient umsetzt.
- Du bist sicher im Einsatz von Containerisierung mit Docker sowie Kubernetes oder OpenShift.