(Senior) Data Modeler / Data Vault Expert Azure Databricks / Lakehouse

Deichmann
Essen, Germany
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Shift work
Languages
English, German
Experience level
Senior

Job location

Remote
Essen, Germany

Tech stack

Data analysis
Azure
Cloud Computing
Information Engineering
Data Governance
ETL
Data Structures
Data Vault Modeling
Python
Metadata
Microsoft Office
Scala
Vault (Revision Control System)
Spark
Information Technology
Databricks

Job description

Deichmann SE Oldenzaal, Niederlande 100% Home-Office Veröffentlicht: Heute Vollzeit, Deine

  • Konzeption und Weiterentwicklung unseres Enterprise-Datenmodells im Azure-Lakehouse - mit Schwerpunkt auf Data Vault (Raw/Business Vault) sowie abgeleiteten Data Marts (z. B. Kimball)
  • Modellierung von Hubs, Links, Satellites (inkl. Historisierung, Keys, Loaded/Record Source, PIT/Bridge-Konzepte) und Ableitung fachlicher Sichten für Analytics & Reporting
  • Definition von Modellierungsstandards, Namenskonventionen und Best Practices für Wiederverwendbarkeit, Skalierbarkeit und Governance
  • Enge Zusammenarbeit mit Fachbereichen, Data Engineers, BI/Analytics und Data Governance, um Anforderungen in robuste, nachvollziehbare Datenstrukturen zu übersetzen
  • Qualitätssicherung der Datenmodelle (Konsistenz, Historisierung, Nachvollziehbarkeit, Testbarkeit) über den gesamten Datenlebenszyklus
  • Unterstützung bei der Integration neuer Quellsysteme: Analyse, Mapping, Modell-Impact, Regelwerke und Dokumentation
  • Mitarbeit an Architektur- und Technologieentscheidungen rund um Data Vault im Lakehouse (z. B. Automatisierung, Metadaten, Orchestrierung)

Requirements

  • Abgeschlossenes Studium der (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften oder eine vergleichbare Qualifikation
  • Mehrjährige Erfahrung in Datenmodellierung - idealerweise mit einem klaren Schwerpunkt auf Data Vault (2.0); Kimball-Kenntnisse sind ein Plus
  • Sehr gutes Verständnis von Historisierung, Integrationsmodellierung, Business Keys, Surrogate Keys sowie konzeptioneller/fachlicher Modellierung
  • Erfahrung im Cloud-/Lakehouse-Umfeld, idealerweise Microsoft Azure
  • Kenntnisse in Azure Databricks / Spark und Programmierung mit Python oder Scala (um Modellkonzepte technisch sauber umzusetzen und mitzuentwickeln)
  • Routine im Zusammenspiel mit ETL/ELT-Prozessen, Datenqualität und idealerweise Datenkatalog/Metadaten/Dokumentation
  • Strukturierte, eigenverantwortliche Arbeitsweise, analytisches Denkvermögen und Freude an Abstimmung mit Stakeholdern
  • Sehr gute Deutsch- und gute Englischkenntnisse

Benefits & conditions

Was Dich bei uns erwartet:

  • Ein Umfeld, in dem Du Dinge wirklich bewegen kannst: moderne Datenplattform, relevante Use Cases, viel Gestaltungsspielraum

  • Kollegiales Teamwork, kurze Wege und pragmatische Zusammenarbeit

  • Fachliche Weiterentwicklung durch spannende Projekte, Austausch und Qualifizierung

  • 30 Tage Urlaub

  • Flexible Arbeitszeiten

  • Tageweise mobiles Arbeiten

  • Ermäßigtes DeutschlandTicket Job

  • Betriebliche Altersvorsorge

  • Kitaplätze

  • Bistro

  • Personalrabatt

  • Unterstützungskasse

  • Seminare & Fortbildungen

  • Betriebliches Gesundheitsmanagement

  • Firmenevents

Apply for this position