Senior Data Engineer (Use-Cases/Science)

Westhouse Consulting GmbH
19 days ago

Role details

Contract type
Permanent contract
Employment type
Part-time (≤ 32 hours)
Working hours
Regular working hours
Languages
German, English
Experience level
Senior

Job location

Tech stack

Amazon Web Services (AWS)
Data analysis
Confluence
Cloud Computing
Continuous Integration
Information Engineering
ETL
Python
Scrum
Software Engineering
SQL Databases
Technical Data Management Systems
GIT
PySpark
Front End Software Development
Docker

Job description

  • Analyse von Ist Zuständen (z.B. Datenpipelines, Datensampeln, CI/CD Systeme, Dashboarding)
  • Ausarbeiten von Zielzuständen (z.B. Datenpipelines, Generische Datenmodelle, Dashboarding)
  • Erarbeitung von Lösungsoptionen, um vom Ist- zum Zielzustand zu gelangen, inkl. der Durchführung von Workshops (z.B. Analytics POCs)
  • Bewertung und vorstellen von Lösungsoptionen (z.B. Analytics POCs)
  • Analyse und Gestaltung der cloudspezifischen Business Architektur (z.B. Dashboarding, Analytics Use-Cases)
  • Organisation und Durchführung von themenspezifischen Workshops zur Präsentation von Projekt-/Arbeitsergebnissen (z.B. im Kontext von IoT, Docker, Dashboarding)
  • Erstellung entsprechender Dokumentation der Arbeitsergebnisse (z.B. Konzepte in Confluence, Code in den Repositories)
  • Fachliche Unterstützung bei der Weiterentwicklung des cloudnativen Frontends, dazu gehören die Umsetzung und Dokumentation von neuen Bibliotheken und BI Tools und deren Features
  • Entwicklung von Daten Pipelines zur Berechnung von KPIs und Verknüpfung von unterschiedlichen Datenquellen auf Basis von Python, pySpark und SQL
  • Fachliche Unterstützung im SCRUM Team, Teilnahme an Refinements, Plannings, Reviews, fachliche Retros
  • Data Exploration von neuen Datenquellen
  • Entwicklung von Daten Dashboards zur Analyse von technischen Daten
  • Implementierung von Methoden zur tiefgehenden Analyse von Logistik und Fahrzeugdaten im Kontext CBM, Digital Twins, Energiedaten
  • Weitergabe von projektbezogenem Wissen an neue Projektmitglieder im Onboarding Prozess des Projektes

Requirements

  • Muss-Kriterien (bitte nur bewerben, wenn ALLE Muss-Kriterien erfüllt sind!):
  • Mind. 2 Jahre Erfahrung in der Entwicklung von Analyse Pipelines mittels der für die geforderte Pipeline-Entwicklung erforderlichen Tools und Programmiersprachen. (SQL, Python, ...)
  • Mind. 5 Jahre Erfahrung im Aufbau und/oder in der Integration von Data Science in fachliche Prozesse/Abläufe/Anwendungen von Use Cases
  • Mind. 4 Jahre Erfahrung in Projekten zur datengestützten Berechnung von Fahrzeug- und Energiedaten KPIs im Eisenbahnsektor
  • Mind. 2 Jahre Erfahrung in der SW-Entwicklung (z.B. GIT, CICD, Testing)
  • Mind. Englischkenntnisse auf C1-Niveau
  • Soll-Kriterien:
  • Mind. 1 Projekterfahrung in einer agilen und skalierten Projektumgebung
  • Mind. 1 Projekterfahrung im Umgang mit Daten aus der Transport- und Logistikbranche, insbesondere im Umgang mit unterschiedlichen Datenformaten, Qualitätseinschränkungen und Verarbeitungsprozessen
  • Mind. 1 Projekterfahrung im Bereich Data Engineering und der Anwendung moderner Cloud Architekturen sowie der End-to-End Operationalisierung von ETL-/Datenstrecken
  • Mind. 1 Projekterfahrung mit der praktischen nutzung von AWS-Tools
  • Mind. 1 Projekterfahrung mit praktischer Erfahrung in der Entwicklungsumgebung PYCharm

Apply for this position