Senior Cloud & Data Engineer - Delivery

Deloitte
Leipzig, Germany
2 days ago

Role details

Contract type
Permanent contract
Employment type
Part-time (≤ 32 hours)
Working hours
Regular working hours
Languages
German
Experience level
Senior

Job location

Leipzig, Germany

Tech stack

Amazon Web Services (AWS)
Azure
Cloud Computing
Cloud Engineering
Continuous Integration
Information Engineering
ETL
Python
Cloud Services
Scala
SQL Databases
Data Streaming
Data Processing
Google Cloud Platform
Cloud Platform System
Snowflake
Spark
Cloudformation
Kubernetes
Information Technology
Data Management
Terraform
Azure
Docker
Databricks

Job description

Als Senior Cloud & Data Engineer (m/w/d) bist du maßgeblich an der Konzeption, dem Aufbau und dem Betrieb skalierbarer und sicherer Cloud-Plattform-Infrastrukturen sowie datengetriebener Produkten beteiligt. Deine Arbeit in agilen Teams ermöglicht die Bereitstellung innovativer Lösungen auf führenden Cloud- (z.B. AWS, Azure oder GCP) und Daten-Plattformen (z.B. Snowflake, Databricks). In enger Kooperation mit Architekt:innen, Ingenieur:innen und Business-Stakeholdern übersetzt du technische Anforderungen in robuste Cloud-Services und mehrwertstiftende Data-Products.

  • Entwicklung von Cloud- und Datenplattformen: Konzeption und Implementierung skalierbarer cloud-nativer Plattformen sowie robuster Datenpipelines unter Nutzung von Tools wie z.B. Databricks, AWS / Azure / GCP für effiziente Datenverarbeitung und -speicherung. Data Engineering: Aufbau und Optimierung skalierbarer ETL-Pipelines für Batch- und Streaming-Verarbeitung sowie Datenmanagement
  • Implementierung: Entwickle skalierbare Cloud-Infrastruktur und Datenplattformen für Batch- und Streaming-Verarbeitung sowie cloud-native Lösungen zur Unterstützung von datengetriebenen Geschäftsanforderungen.
  • Zusammenarbeit: Arbeite eng mit funktionsübergreifenden Teams zusammen, um technische Lösungen zu entwickeln und Best Practices für Daten- und Cloud-Engineering zu fördern.
  • Mitgestaltung: Trage aktiv zur Weiterentwicklung von Datenplattformen, Datenpipelines und Automatisierungslösungen bei, um die Servicequalität zu optimieren und datengetriebene Innovationen zu ermöglichen. Technologie-Fokus: Nutze modernste Technologien wie Databricks, Snowflake, Apache Spark, Docker, Kubernetes, Azure, AWS und GCP, um leistungsstarke und sichere Daten- und Cloud-Plattformen zu entwickeln., * Mehrjährige Berufserfahrung mit Schwerpunkt auf der Konzeption, Entwicklung oder Optimierung von Datenplattformen wie Databricks, Snowflake oder Cloud-Plattformen (z. B. AWS, Azure, GCP).

Requirements

  • Praktische Erfahrung im Umgang mit Datenplattformen und relevanten Technologien wie Apache Spark, SQL, Python oder Scala. Idealerweise sicherer Umgang mit Infrastructure-as-Code-Tools (z. B. Terraform, CloudFormation, ARM Templates) sowie Automatisierung von CI/CD-Pipelines und der Einsatz von Docker und Kubernetes zur Bereitstellung und Verwaltung containerisierter Anwendungen.
  • Erfolgreich abgeschlossenes Studium in (Wirtschafts-)Informatik, (Wirtschafts-)Ingenieurwesen, Wirtschaftswissenschaften mit Informatikbezug oder einem vergleichbaren Studiengang.
  • Ausgezeichnete Sprachkenntnisse in Deutsch (C1) und Englisch, sowohl mündlich als auch schriftlich.

Benefits & conditions

Du willst im Bereich Consulting Delivery - Engineering, AI & Data technologieorientierte Dienstleistungen entwickeln? Im Delivery Team unterstützen wir digitale Transfomationen hands-on in der technischen Implementierung (z.B. Cloud & Data Engineering, Softwareentwicklung) und durch methodische Expertise (z.B. Projektmanagement).

About the company

Deloitte drives progress. Our firms around the world help our clients become market leaders wherever they compete. Deloitte invests in outstanding people with diverse talents and backgrounds, empowering them to achieve more than they can elsewhere. Our work combines consulting with action and integrity. We believe that when our clients and society are stronger, so are we.

Apply for this position