Data Engineer
Role details
Job location
Tech stack
Job description
23.01.2026 Location remote, Germany Category Business Intelligence Data Analysis / Data Science Job Type Full-time Job Reference 30769 Workplace Fully remote, Hybrid, On-Site Estimated Salary bis zu 70.000 EUR / Jahr Industry IT Responsible for Konzeption und Betreuung von Data Warehouse / BI Architekturen, ETL/ELT Prozesse, Datenmodellierung, Reporting, Kundenprojekte Skills MS Azure BI, Power BI, Business Intelligence, BI Architekturen, Datenmodelle, Cloud Lösungen, Data Bricks, MS Fabric, * Mitarbeit in Kundenprojekten zur Umsetzung und Weiterentwicklung moderner Datenplattformen
- Architekturdesign und Implementierung skalierbarer Datenplattformen in Cloud- und Hybrid-Umgebungen
- Konzeption, Aufbau und Betrieb von Data-Warehouse-, Data-Lake- und Lakehouse-Architekturen
- Entwicklung, Orchestrierung und Optimierung von ETL-/ELT-Pipelines sowie Datenintegrationsprozessen
- Integration, Harmonisierung und Verarbeitung heterogener Datenquellen (z. B. ERP, CRM, APIs, Streaming)
- Datenmodellierung nach etablierten Standards (Star Schema, Data Vault, 3NF) inklusive fachlichem Mapping und Dokumentation
- Umsetzung von KPI-Logiken sowie Entwicklung und Anbindung von Reporting- und Dashboard-Lösungen
- Sicherstellung von Datenqualität, Performance, Monitoring und Stabilität produktiver Datenpipelines
- Unterstützung bei der Implementierung von Data-Governance-, Security- und Berechtigungskonzepten
- Technische Abstimmung mit anderen Fachbereichen und Entscheidungsträgern
Requirements
- Erfolgreich abgeschlossenes Studium oder gleichwertige Ausbildung und mindestens 3-5 Jahre Berufserfahrung in der Umsetzung von Datenlösungen im Umfeld Data Engineering, Analytics, BI oder Datenarchitektur
- Sehr gute Kenntnisse in MS Azure BI Stack, wie Data Factory, Databricks, MS Fabric
- Tiefgehende praktische Erfahrung mit Reporting Tools wie Power BI oder Tableau
- Souveräner Umgang mit SQL zur Analyse, Transformation und Modellierung von Daten
- Tiefgehendes Know-how in der Konzeption und Umsetzung von Datenmodellen sowie performanten Datenstrukturen sowie die Datenintegration (Airflow, Spark, Kafka)
- Praxiserfahrung in der Entwicklung datengetriebener Prozesse mit Python
- Erfahrung im Einsatz moderner Cloud-Datenplattformen wie Azure, AWS, Google Cloud, Snowflake und Kenntnisse in technischen Architekturkonzepten
- Idealerweise erste Kenntnisse im DevOps Umfeld, z.B. CI/CD, Git oder IaC
Ihre Person
- Kommunikative und offene Persönlichkeit
- Professiones Auftreten und Spass an der Zusammenarbeit mit Kunden
- Kunden- und lösungsorientierte Arbeitsweise
- Fließende Deutsch- und sehr gute Englischkenntnisse
Benefits & conditions
Sie arbeiten gerne an der Schnittstelle zwischen Daten, Technologie und Business und wollen moderne Datenplattformen aktiv mitgestalten? In dieser Rolle sind Sie Teil spannender Kundenprojekte, in denen Sie Datenarchitekturen aufbauen, Datenpipelines optimieren und Cloud-Lösungen implementieren. Sie sorgen dafür, dass Daten zuverlässig, performant und sicher zur Verfügung stehen - und tragen so maßgeblich dazu bei, dass Unternehmen datengetriebene Entscheidungen treffen können. Werden Sie Teil eines dynamischen Teams, das technische Exzellenz mit Praxisnähe verbindet und Innovationen direkt in die Realität umsetzt., * Eine sehr gute Work-Life-Balance, durch einen sehr hohen remote-Anteil, der ortsunabhängiges Arbeiten ermöglicht und Ihnen die Möglichkeit bietet, Arbeit und Freizeit perfekt zu kombinieren
- 30 Tage Urlaub für Ihre Erholung
- Spannende Projekte mit namhaften Kunden aus technologiegetriebenen Branchen
- Ein Arbeitsumfeld mit viel Eigenverantwortung, Vertrauen und Gestaltungsspielraum
- Attraktive Vergütung sowie gezielte Weiterbildungs- und Zertifizierungsmöglichkeiten im Cloud- und DevOps-Bereich
- Moderne Unternehmenskultur mit Fokus auf Austausch, Lernen und kontinuierliche Verbesserung