Data Engineer - C4-Modell
Westhouse Consulting GmbH
Frankfurt am Main, Germany
2 days ago
Role details
Contract type
Permanent contract Employment type
Part-time (≤ 32 hours) Working hours
Regular working hours Languages
GermanJob location
Frankfurt am Main, Germany
Tech stack
Amazon Web Services (AWS)
Confluence
User Authentication
Cloud Computing
Continuous Integration
Database Storage Structures
Python
Oracle Applications
Performance Tuning
Oracle APEX
Software Systems
PL-SQL
SQL Databases
Apex Code
Data Build Tool (dbt)
Data Lakehouse
Job description
- Planung und Konzeption:
- Analyse bestehender Systeme, Anwendungen, Datenstrukturen und Architekturen im Kontext ICP
- Fachlich-technische Konzeption der Zielarchitektur für ICP unter Berücksichtigung bestehen-der Plattformen und Standards
- Konzeption von Datenmodellen, Datenflüssen und Integrationsarchitekturen zur Verarbeitung von Betriebs-, Leistungs- und Abrechnungsdaten
- Konzeption nutzerorientierter Anwendungen und Auswertungen zur Unterstützung von Steue-rung, Controlling und Abrechnung
- Konzeption funktionaler und technischer Schnittstellen zwischen Anwendungen, Datenquellen und Prozessen
- Entwicklung und Umsetzung:
- Entwicklung und Weiterentwicklung von Anwendungen und Datenpipelines im Umfeld von ICP
- Entwicklung und Pflege relationaler Datenbankstrukturen sowie Implementierung von Datenin-tegrationen und Schnittstellen
- Umsetzung von fachlichen Anforderungen in technische Lösungen inkl. Prototypen
- Test, Fehleranalyse und Qualitätssicherung der entwickelten Komponenten
- Unterstützung beim operativen Betrieb und bei der Weiterentwicklung bestehender Anwendun-gen
- Dokumentation:
- Erstellung und Pflege einer technischen Dokumentation der entwickelten Lösungen
- Erstellung von Architekturartefakten einschließlich Architekturübersichten und Entscheidungs-dokumentationen
- Erstellung und Übergabe eines Betriebs- und Entwicklungshandbuchs
Requirements
- Sehr gute Kenntnisse mit Cloud-basierten relationalen Datenbanken: Fundierte Erfahrung in Konzeption, Modellierung und Betrieb relationaler Datenbanken (ER-Modellierung, Normalisierung, Performance-Tuning) sowie tiefgehende Kenntnisse in Oracle (z. B. SQL/PL/SQL, Partitionierung, Indizierungs- und Optimierungsstrategien, Backup/Recovery).
- Oracle APEX: Fundierte Erfahrung in der Entwicklung und dem Betrieb von APEX-Anwendungen (inkl. Authentifizierung/Autorisierung, Performance, Deployment).
- Python für Daten- und Integrationslösungen: Sehr gute Kenntnisse in Python (3.x) für Daten-Pipelines und Integrationsaufgaben (z. B. Modulstruktur, Tests, Packaging).
- Technische Dokumentation und Architektur: Erstellung und Pflege technischer Dokumentation gemäß C4-Modell (mind. C1-C3) inkl. ADRs (Architecture Decision Records) sowie strukturierte Ablage, Reviews und Nachverfolgbarkeit der Artefakte in Confluence.
- SOLL-Kriterien:
- Fundierte Erfahrung mit CI/CD Prozessen für Build, Test, Qualitätssicherung und Deployment
- Starburst/Trino: Fundierte Erfahrung mit Starburst/Trino im Kontext Data Lakehouse (z. B. Anbindung an S3, Katalog/Metastore, Query-Optimierung, Sicherheitskonzepte).
- dbt (Data Build Tool): Sehr gute Kenntnisse in dbt Core oder dbt Cloud (Modelle, Tests, Do kumentation, Snapshots, Environments).
- Domänenkenntnis: Nachweisbare Erfahrung in Bahnspezifischen Domänen (Fahrplan, Re-gelzugbildung o. ä.), z. B. durch Projekte, Prototypen oder Prozessexzellenz