Data Engineer - AWS Cloud & Data Pipelines 98% remote ID2398S
Role details
Job location
Tech stack
Job description
Ziel ist der Aufbau, die Modellierung und die Automatisierung von Datenpipelines sowie die Bereitstellung strukturierter Daten für Analyse- und Reporting-Anwendungen. Die Arbeit erfolgt in einem agilen Scrum-Team mit Fokus auf AWS, Python und Power BI. Aufgaben:
- Entwicklung und Automatisierung von ETL-/Datenpipelines (raw - trusted - refined)
- Modellierung und Integration von Daten aus unterschiedlichen Quellen
- Implementierung von Data Governance- und Sicherheitsrichtlinien
- Optimierung von Datenverarbeitungsprozessen und Automatisierungen
- Erstellung interaktiver Dashboards in Power BI
- Durchführung von Ad-hoc-Analysen und Plausibilisierungen
- Dokumentation in Confluence und Verwaltung des Codes in GitLab
Requirements
Mind. 3 Jahre Erfahrung mit Serverless Data Processing und Integrationstechnologien (AWS Glue, Lambda)
-
Mind. 4 Jahre Erfahrung in Data-Engineering-Projekten auf AWS im Enterprise-Umfeld
-
Projekterfahrung in der Entwicklung von Dashboards mit Power BI (mind. 1 Referenzprojekt)
-
Nachweisbare Kenntnisse in Apache Spark, AWS Sagemaker oder Python
-
Erfahrung in der automatisierten Verarbeitung von Geodaten (z. B. mit PTV Visum, OpenStreetMap oder Python)
-
Sehr gute Deutschkenntnisse (C1) und gute Englischkenntnisse (C1) Wünschenswert (Nice-to-have):
-
Projekterfahrung mit Instandhaltungs- oder Betriebsdaten
-
Sehr gute SQL-Kenntnisse (ab 3 Jahre)
-
Kenntnisse im Bereich Machine Learning / MLOps
-
Zertifikate in Data Engineering oder Data Science