Senior Data & AI Engineer Sovereign Cloud

Capgemini Deutschland Holding GmbH
Berlin, Germany
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Shift work
Languages
English, German
Experience level
Senior

Job location

Berlin, Germany

Tech stack

Artificial Intelligence
Airflow
Data analysis
Apache HTTP Server
Automation of Tests
Cloud Computing
Continuous Integration
ETL
Data Vault Modeling
Python
Open Source Technology
Cloudera
SQL Databases
Data Streaming
Data Ingestion
GIT
Kubernetes
Information Technology
Star Schema

Job description

Gemeinsam mit einem dynamischen, leidenschaftlichen Team hast du die Chance, an wegweisenden Projekten und spannenden Herausforderungen im öffentlichen Sektor und weiteren Branchen mitzuwirken. Deine Arbeit reicht von der ersten Datenaufnahme über anspruchsvolle Transformationen und Qualitätssicherung bis hin zur Bereitstellung für modernste Analytics-, Reporting- und (Gen)AI-Use-Cases. Dabei bist du Pionier:in, wenn es darum geht, innovative AI-Lösungen in die Datenwelt zu integrieren und so den technologischen Wandel aktiv voranzutreiben.

  • Du begleitest alle relevanten Phasen einer Datenlösung - von der Anforderungsaufnahme über Integration und Betrieb bis hin zu Monitoring und kontinuierlicher Optimierung. Dabei stellst du robuste, transparente Datenflüsse in regulierten Umgebungen sicher.
  • Du setzt KI- und GenAI-Tools verantwortungsvoll ein, z. B. zur Unterstützung bei Code-Erstellung, Dokumentation, Tests und Qualitätssicherung. Gemeinsam mit Kund*innen und Projektteams entwickelst du sichere Integrationsmuster und wirkst an deren Umsetzung in agentenbasierten Lösungen mit.
  • Du konzipierst und entwickelst skalierbare Architektur- und Plattformlösungen für On-Premise-, Hybrid- oder Sovereign-Cloud-Umgebungen. Dabei berücksichtigst du Anforderungen an Daten- und Plattform-Souveränität und nutzt Open-Source-Technologien (z. B. aus dem Apache-Ökosystem, Kubernetes oder distributionsbasierte Plattformen), optional ergänzt durch kommerzielle Komponenten wie IBM watsonx. Du setzt moderne Lakehouse-Konzepte sowie Batch- und Streaming-Verarbeitung ein.
  • Du modellierst Daten effizient (z. B. Star-Schema, Normalformen oder Data Vault) und entwickelst skalierbare Datenpipelines mit Python, SQL sowie gängigen ETL-/ELT-Frameworks und Tools wie Airflow oder dbt. Ziel ist die Bereitstellung qualitativ hochwertiger Datenprodukte für Analytics, Reporting und KI-Anwendungen.
  • Du integrierst Security-by-Design-Prinzipien, berücksichtigst geltende Compliance- und Governance-Anforderungen und arbeitest mit etablierten Entwicklungsstandards (z. B. Git, CI/CD, testbare Komponenten). Themen wie Datenqualität, Observability, Kosten-, Performance- und Sicherheitsaspekte fließen dabei kontinuierlich in deine Arbeit ein.
  • Du moderierst Workshops, analysierst fachliche und technische Anforderungen und überführst diese in strukturierte Backlogs. Du entwickelst Demos, präsentierst Ergebnisse und lieferst technischen Input für Angebote. Darüber hinaus unterstützt du den Wissenstransfer im Team und in der Community, z. B. durch Coaching oder fachlichen Austausch., * Flexible Arbeitszeit- und Auszeitmodelle
  • Mobiles Arbeiten - auch hybrid von Zuhause aus
  • Jobfahrrad-Programm
  • Mobilitätsbudget
  • Vielfältiges Weiterbildungsangebot
  • Internationales Netzwerk
  • Kooperation mit dem pme Familienservice
  • Deferred Compensation - im Alter gut abgesichert
  • Verlängerte Entgeltfortzahlung im Krankheitsfall
  • Gesundheitsangebote
  • Attraktiver Arbeitsplatz für Menschen mit Handicap
  • Kontakthalteprogramm fareWelcome!
  • Work-life-balance
  • Mitarbeiterrabatte
  • Team- und Sportevents

Requirements

  • Du verfügst über umfangreiche praktische Erfahrung im Aufbau, Betrieb und in der Weiterentwicklung produktionsreifer Datenplattformen und -pipelines, idealerweise im öffentlichen Sektor oder in hochregulierten, souveränen Umgebungen.
  • Du besitzt fundierte Kenntnisse im Open-Source-Daten- und Plattform-Ökosystem (z. B. Apache Stack, Cloudera) sowie optional in IBM watsonx. Zudem hast du Erfahrung mit On-Prem-Architekturen, hybriden Plattformen oder souveränen Cloud-Modellen.
  • Du verfügst über sehr gute Kenntnisse in SQL, Python, Datenmodellierung sowie ETL/ELT-Prozessen. Orchestrierungswerkzeuge wie Airflow, Automatisierungstools wie dbt sowie Git, CI/CD, Testautomatisierung und gängige Governance- und Security-Standards setzt du sicher ein.
  • Du nutzt KI-gestützte Werkzeuge wie Copilot oder Claude im Engineering-Kontext und verstehst agentische Muster sowie deren sichere und souveräne Integration in Datenplattformen.
  • Du bist in der Lage, Anforderungen strukturiert aufzunehmen, Workshops zu moderieren und komplexe technische sowie fachliche Zusammenhänge verständlich darzustellen. Du kannst Trade-offs transparent erklären und adressatengerecht einordnen.
  • Du verfügst über ein abgeschlossenes Studium der (Wirtschafts-)Informatik, eines MINT-Fachs oder über eine vergleichbare Qualifikation durch praktische Erfahrung. Sehr gute Deutsch- und Englischkenntnisse sowie projektbezogene Reisebereitschaft runden dein Profil ab.

About the company

Wir legen großen Wert auf die Vereinbarkeit von Arbeit und Privatleben. Deshalb hast du bei uns die Möglichkeit, hybrid aus dem Office, von zu Hause oder an anderen Capgemini Standorten in Deutschland zu arbeiten. Gleichzeitig bietet Capgemini dir flexible Arbeitszeitmodelle. Wir bieten dir vielfältige Möglichkeiten zur Weiterentwicklung: Unser Karrieremodell ermöglicht es dir, deine Karriere so zu lenken, wie es für dich am besten ist und unsere Leadership Programme unterstützen dich dabei. Mit zahlreichen Angeboten auf unserer Lernplattform hast du zudem jederzeit die Möglichkeit, deine Skills auszubauen oder dir neue anzueignen. Unsere Communitys: Wir bieten dir aktive Mitarbeiternetzwerke, in denen du dich sowohl fachlich als auch persönlich mit Kolleg*innen aus aller Welt austauschen kannst. Zudem fördern unsere Communitys Vielfalt, Diversität und Inklusion am Arbeitsplatz.

Apply for this position