(Senior) Data Engineer - Azure Databricks/Lakehouse

Deichmann
Essen (Oldenburg), Germany
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Shift work
Languages
English, German
Experience level
Senior

Job location

Essen (Oldenburg), Germany

Tech stack

Data analysis
Azure
Cloud Computing
Information Engineering
Data Integration
ETL
Data Vault Modeling
Relational Databases
Python
Scala
Data Logging
Spark
Data Strategy
Information Technology
Databricks

Job description

uber uns

Als eigenfinanziertes Familienunternehmen sind wir mehr als nur ein ca. 4.700 Standorte umspannendes Filialnetz in 34 Landern, mehr als ca. 8,7 Mrd. Euro Jahresumsatz und mehr als einer der erfolgreichsten Online-Shops fur Schuhe in Europa. Deichmann ist Wegbereiter, Forderer und Arbeitgeber von uber 49.000 engagierten Mitarbeiterinnen und Mitarbeitern weltweit. Als nachhaltig expandierendes Unternehmen sind wir seit mehreren Jahrzehnten in der Lage, unseren Mitarbeitern einen sicheren Arbeitsplatz zu bieten.

Daten sind fur Dich nicht nur "Input", sondern die Basis fur gute Entscheidungen? Du mochtest Datenprodukte bauen, die stabil laufen, skalieren und echten Mehrwert liefern - von der Quelle bis zur analytischen Nutzung? Dann werde Teil unseres Data-Teams und gestalte mit uns die Weiterentwicklung unserer Azure-Lakehouse-Plattform. Aufgaben

  • Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark)
  • Du baust unsere Data-Lakehouse-Architektur weiter aus - performant, skalierbar und zukunftssicher
  • Du konzipierst und implementierst automatisierte ETL/ELT-Prozesse (inkl. Monitoring, Logging, Fehlerhandling)
  • Du integrierst Daten aus unterschiedlichen Quellsystemen, transformierst sie und stellst sie fur Analytics, BI und Data Science bereit
  • Du arbeitest an Datenmodellen (z. B. Kimball, Data Vault) und hilfst dabei, fachliche Anforderungen in robuste Strukturen zu ubersetzen
  • Du stellst Datenqualitat, Konsistenz und Sicherheit entlang des gesamten Datenlebenszyklus sicher
  • Du arbeitest eng mit Data Scientists, Analysten, Fachbereichen und IT zusammen - agil, pragmatisch und losungsorientiert
  • Du bringst Dich aktiv in Architektur- und Technologieentscheidungen sowie in die Weiterentwicklung unserer Datenstrategie ein

Profil

  • Abgeschlossenes Studium (z. B. (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften) oder eine vergleichbare Qualifikation
  • Mehrjahrige Erfahrung im Data Engineering, idealerweise in Cloud-Umgebungen (Azure)
  • Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
  • Erfahrung mit modernen ETL/ELT-Konzepten, Datenintegration und dem produktiven Betrieb von Datenpipelines
  • Kenntnisse in der Datenmodellierung (z. B. Kimball, Data Vault) und im Umgang mit relationalen & nicht-relationalen Datenbanken
  • Du denkst strukturiert, arbeitest eigenverantwortlich und hast ein gutes Gespur fur Qualitat und Wartbarkeit
  • Sehr gute Deutsch- und gute Englischkenntnisse

Wir bieten

Was Dich bei uns erwartet:

  • Ein Umfeld, in dem Du Dinge wirklich bewegen kannst: moderne Datenplattform, relevante Use Cases, viel Gestaltungsspielraum
  • Kollegiales Teamwork, kurze Wege und pragmatische Zusammenarbeit
  • Fachliche Weiterentwicklung durch spannende Projekte, Austausch und Qualifizierung

Benefits:

  • 30 Tage Urlaub
  • Flexible Arbeitszeiten
  • Tageweise mobiles Arbeiten
  • Ermassigtes DeutschlandTicket Job
  • Betriebliche Altersvorsorge
  • Kitaplatze
  • Bistro
  • Personalrabatt
  • Unterstutzungskasse
  • Seminare & Fortbildungen
  • Betriebliches Gesundheitsmanagement
  • Firmenevents

Als (Senior) Data Engineer (m/w/d) verstarkst Du unser Team in Essen. Wenn Du Einsatz zeigst und etwas bewegen willst, dann bist Du bei uns genau richtig. Lerne uns als Arbeitgeber kennen, informiere Dich uber Deine beruflichen Moglichkeiten und bewege mit uns grossartige Projekte. Bewirb Dich jetzt online mit Angabe Deiner Gehaltsvorstellung und Deines fruhestmoglichen Eintrittstermins. Wir freuen uns auf Dich!

Requirements

  • Abgeschlossenes Studium (z. B. (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften) oder eine vergleichbare Qualifikation
  • Mehrjahrige Erfahrung im Data Engineering, idealerweise in Cloud-Umgebungen (Azure)
  • Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder Scala
  • Erfahrung mit modernen ETL/ELT-Konzepten, Datenintegration und dem produktiven Betrieb von Datenpipelines
  • Kenntnisse in der Datenmodellierung (z. B. Kimball, Data Vault) und im Umgang mit relationalen & nicht-relationalen Datenbanken
  • Du denkst strukturiert, arbeitest eigenverantwortlich und hast ein gutes Gespur fur Qualitat und Wartbarkeit
  • Sehr gute Deutsch- und gute Englischkenntnisse

Benefits & conditions

Was Dich bei uns erwartet:

  • Ein Umfeld, in dem Du Dinge wirklich bewegen kannst: moderne Datenplattform, relevante Use Cases, viel Gestaltungsspielraum
  • Kollegiales Teamwork, kurze Wege und pragmatische Zusammenarbeit
  • Fachliche Weiterentwicklung durch spannende Projekte, Austausch und Qualifizierung

Benefits:

  • 30 Tage Urlaub
  • Flexible Arbeitszeiten
  • Tageweise mobiles Arbeiten
  • Ermassigtes DeutschlandTicket Job
  • Betriebliche Altersvorsorge
  • Kitaplatze
  • Bistro
  • Personalrabatt
  • Unterstutzungskasse
  • Seminare & Fortbildungen
  • Betriebliches Gesundheitsmanagement
  • Firmenevents

About the company

FULL_TIME FULL_TIME EUR uber uns Als eigenfinanziertes Familienunternehmen sind wir mehr als nur ein ca. 4.700 Standorte umspannendes Filialnetz in 34 Landern, mehr als ca. 8,7 Mrd. Euro Jahresumsatz und mehr als einer der erfolgreichsten Online-Shops fur Schuhe in Europa. Deichmann ist Wegbereiter, Forderer und Arbeitgeber von uber 49.000 engagierten Mitarbeiterinnen und Mitarbeitern weltweit. Als nachhaltig expandierendes Unternehmen sind wir seit mehreren Jahrzehnten in der Lage, unseren Mitarbeitern einen sicheren Arbeitsplatz zu bieten. Daten sind fur Dich nicht nur "Input", sondern die Basis fur gute Entscheidungen? Du mochtest Datenprodukte bauen, die stabil laufen, skalieren und echten Mehrwert liefern - von der Quelle bis zur analytischen Nutzung? Dann werde Teil unseres Data-Teams und gestalte mit uns die Weiterentwicklung unserer Azure-Lakehouse-Plattform.

Apply for this position