Senior Data Engineer - Google Cloud Platform

Schwarz Unternehmenskommunikation GmbH & Co. KG
Berlin, Germany
yesterday

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
English, German
Experience level
Senior

Job location

Berlin, Germany

Tech stack

Agile Methodologies
Artificial Intelligence
Airflow
Data analysis
Automation of Tests
Big Data
Cloud Computing
Computer Security
Continuous Integration
Information Engineering
DevOps
Python
Machine Learning
Software Engineering
Data Streaming
Data Processing
Google Cloud Platform
Spark
GIT
Containerization
Kubernetes
Information Technology
Real Time Data
Kafka
Data Lakehouse
Software Version Control
Docker

Job description

  • Erfahrung: Mehrjahrige fundierte Erfahrung im Data Engineering, Big Data Umfeld oder Software Engineering, idealerweise in einer Senior-Rolle.
  • Cloud- & Streaming-Expertise: Du bringst fundierte Kenntnisse in Cloud-Infrastrukturen mit (Google Cloud Platform) sowie tiefe Erfahrung in der Verarbeitung von Echtzeitdaten mit Apache Kafka.
  • Tech-Stack: Sehr gute Kenntnisse in Python und Spark. Du bist sicher im Umgang mit Containerisierung (Kubernetes/Docker).
  • Orchestrierung & Transformation: Erfahrung mit Tools wie Apache Airflow und Transformationen via dbt ist von grossem Vorteil.
  • Software Best Practices: Du bist sicher im Umgang mit dem Softwareentwicklungszyklus, Versionsverwaltung (Git) sowie DevOps-Prinzipien und automatisierten Tests.
  • Konzeptionelle Starke: Du begeisterst dich fur moderne Architektur-Konzepte wie Data Lakehouses und Data Mesh und hast Freude daran, technologische Standards aktiv mitzugestalten.
  • Personlichkeit: Analytisches Denkvermogen, ein agiles Mindset sowie eine eigenverantwortliche und losungsorientierte Arbeitsweise.
  • Sprachen: Sehr gute Englischkenntnisse; Deutschkenntnisse sind bevorzugt.

Einleitungstext

Schwarz Digits schafft das technologische Fundament fur digitale Entscheidungsfreiheit in Europa. Als IT- und Digitalsparte der Schwarz Gruppe entwickeln und verantworten wir einerseits die IT-Infrastrukturen fur die Handelssparten Lidl und Kaufland sowie die Schwarz Produktion und PreZero. Gleichzeitig agieren wir als unabhangiger Anbieter am externen Markt, um Unternehmen in ganz Europa bei ihrer digitalen Transformation zu unterstutzen. Unsere Kernleistungen bundeln wir in den Bereichen Cloud, Cyber Security, Data & AI, Communication und Workspace. Trage auch du zur digitalen Entscheidungsfreiheit in Europa bei.

Bei uns arbeitest du an der Schnittstelle zwischen Agilitat und Sicherheit: Du profitierst von den schnellen Entscheidungswegen, geniesst echte Gestaltungsspielraume in deinen Projekten und baust dabei auf das stabile Fundament der Schwarz Gruppe. Deine Aufgaben

  • Data Product Engineering: Du konzipierst, entwickelst und betreibst hochperformante Batch- und Streaming-Datenflusse in unserem zentralen Google Cloud Data Lakehouse fur Analytics- und Machine-Learning-Anwendungsfalle.
  • Architektur & Skalierung: Du optimierst die Cloud-Architektur (GCP), stellst die Skalierbarkeit unserer Losungen sicher und entwickelst unsere Standards fur die Datenverarbeitung in Echtzeit und Batch weiter.
  • Software Excellence: Du wendest moderne Software-Engineering-Methoden an und setzt neue Massstabe fur CI/CD, automatisiertes Testing und Deployment-Prozesse in der Datenorganisation.
  • Framework-Mitgestaltung: Du unterstutzt die Weiterentwicklung unserer zentralen Orchestrierungs-Tools (auf Basis von Airflow und dbt), um die Effizienz und Qualitat der Datenbereitstellung unternehmensweit zu steigern.
  • Datenqualitat & Governance: Du implementierst automatisierte Validierungsprozesse (z. B. fur Streaming-Events) und stellst die Einhaltung von Sicherheits- und Datenschutzstandards sicher.
  • Agile Kollaboration: Du arbeitest in interdisziplinaren Teams eng mit Product Ownern, Data Scientists und Fachbereichen zusammen, um komplexe Business-Anforderungen in technische Losungen zu ubersetzen.

Requirements

  • Erfahrung: Mehrjahrige fundierte Erfahrung im Data Engineering, Big Data Umfeld oder Software Engineering, idealerweise in einer Senior-Rolle.
  • Cloud- & Streaming-Expertise: Du bringst fundierte Kenntnisse in Cloud-Infrastrukturen mit (Google Cloud Platform) sowie tiefe Erfahrung in der Verarbeitung von Echtzeitdaten mit Apache Kafka.
  • Tech-Stack: Sehr gute Kenntnisse in Python und Spark. Du bist sicher im Umgang mit Containerisierung (Kubernetes/Docker).
  • Orchestrierung & Transformation: Erfahrung mit Tools wie Apache Airflow und Transformationen via dbt ist von grossem Vorteil.
  • Software Best Practices: Du bist sicher im Umgang mit dem Softwareentwicklungszyklus, Versionsverwaltung (Git) sowie DevOps-Prinzipien und automatisierten Tests.
  • Konzeptionelle Starke: Du begeisterst dich fur moderne Architektur-Konzepte wie Data Lakehouses und Data Mesh und hast Freude daran, technologische Standards aktiv mitzugestalten.
  • Personlichkeit: Analytisches Denkvermogen, ein agiles Mindset sowie eine eigenverantwortliche und losungsorientierte Arbeitsweise.
  • Sprachen: Sehr gute Englischkenntnisse; Deutschkenntnisse sind bevorzugt.

About the company

Schwarz Digits schafft das technologische Fundament fur digitale Entscheidungsfreiheit in Europa. Als IT- und Digitalsparte der Schwarz Gruppe entwickeln und verantworten wir einerseits die IT-Infrastrukturen fur die Handelssparten Lidl und Kaufland sowie die Schwarz Produktion und PreZero. Gleichzeitig agieren wir als unabhangiger Anbieter am externen Markt, um Unternehmen in ganz Europa bei ihrer digitalen Transformation zu unterstutzen. Unsere Kernleistungen bundeln wir in den Bereichen Cloud, Cyber Security, Data & AI, Communication und Workspace. Trage auch du zur digitalen Entscheidungsfreiheit in Europa bei. Bei uns arbeitest du an der Schnittstelle zwischen Agilitat und Sicherheit: Du profitierst von den schnellen Entscheidungswegen, geniesst echte Gestaltungsspielraume in deinen Projekten und baust dabei auf das stabile Fundament der Schwarz Gruppe. Deine Aufgaben * Data Product Engineering: Du konzipierst, entwickelst und betreibst hochperformante Batch- und Streaming-Datenflusse in unserem zentralen Google Cloud Data Lakehouse fur Analytics- und Machine-Learning-Anwendungsfalle. * Architektur & Skalierung: Du optimierst die Cloud-Architektur (GCP), stellst die Skalierbarkeit unserer Losungen sicher und entwickelst unsere Standards fur die Datenverarbeitung in Echtzeit und Batch weiter. * Software Excellence: Du wendest moderne Software-Engineering-Methoden an und setzt neue Massstabe fur CI/CD, automatisiertes Testing und Deployment-Prozesse in der Datenorganisation. * Framework-Mitgestaltung: Du unterstutzt die Weiterentwicklung unserer zentralen Orchestrierungs-Tools (auf Basis von Airflow und dbt), um die Effizienz und Qualitat der Datenbereitstellung unternehmensweit zu steigern. * Datenqualitat & Governance: Du implementierst automatisierte Validierungsprozesse (z. B. fur Streaming-Events) und stellst die Einhaltung von Sicherheits- und Datenschutzstandards sicher. * Agile Kollaboration: Du arbeitest in interdisziplinaren Teams eng mit Product Ownern, Data Scientists und Fachbereichen zusammen, um komplexe Business-Anforderungen in technische Losungen zu ubersetzen.

Apply for this position