Tech stack
Java
Artificial Intelligence
Amazon Web Services (AWS)
Azure
Big Data
Cloud Computing
Software Quality
Information Engineering
ETL
Python
Scala
SQL Databases
Data Streaming
Snowflake
Spark
Kafka
Databricks
Requirements
Der ideale Kandidat bringt ein abgeschlossenes Studium in Informatik, Mathematik, Physik oder eine vergleichbare praktische Erfahrung mit. Sie haben bereits Praxiserfahrung im Data Engineering oder in verwandten Bereichen gesammelt. Sehr gute Kenntnisse in SQL sowie in mindestens einer Programmiersprache wie Python, Scala oder Java sind erforderlich. Zudem sollten Sie Erfahrung in der Datenmodellierung sowie mit ETL-/ELT-Prozessen haben. Kenntnisse in Cloud-Technologien wie AWS oder Azure sind von Vorteil, ebenso wie Erfahrungen mit Big-Data- und Streaming-Technologien wie Spark oder Kafka. Idealerweise haben Sie auch Erfahrung mit Datenplattformen wie Snowflake oder Databricks. Eine strukturierte Arbeitsweise, sehr gute Deutsch- und Englischkenntnisse sowie die Bereitschaft zu gelegentlichen Reisen runden Ihr Profil ab. Wir suchen jemanden, der Interesse am Einsatz von AI-gestützten Tools hat, um die Entwicklungseffizienz und Codequalität zu steigern.
Technologien
Python Java AWS Azure Kafka
Soft Skills
Teamfähigkeit Kommunikation Analytisches Denken
Benefits & conditions
Deutsch Englisch
Salary forecast
€73,500
€63,500
€89,000
Estimated average salary for similar positions
Estimated salary range for similar positions
About the company
Unser Kunde ist ein etabliertes Unternehmen, das seit über 35 Jahren erfolgreich in der Datenanalyse tätig ist. Als Data Engineer (m/w/d) sind Sie Teil eines dynamischen Teams, das sich darauf spezialisiert hat, maßgeschneiderte Daten-, KI- und Softwarelösungen zu entwickeln. Ihre Hauptaufgabe besteht darin, moderne Datenplattformen für Analytics und datengetriebene Anwendungen zu gestalten und zu implementieren. Dabei arbeiten Sie eng mit Kunden und Stakeholdern zusammen, um fachliche Anforderungen zu analysieren und in technische Spezifikationen zu übersetzen. Sie entwickeln und optimieren Datenmodelle, konzipieren und betreiben Datenpipelines, und stellen die Datenqualität sowie die Konsistenz der Datenflüsse sicher. Zudem sind Sie verantwortlich für die Integration und Transformation sowohl strukturierter als auch unstrukturierter Daten. Ihr Beitrag hat direkten Einfluss auf datenbasierte Geschäftsmodelle und KI-Anwendungen. Das Unternehmen bietet Ihnen ein agiles Arbeitsumfeld
mit kurzen Entscheidungswegen und viel Gestaltungsspielraum. Darüber hinaus wird Ihre fachliche und persönliche Weiterentwicklung aktiv gefördert, sei es in der Projektverantwortung oder in Richtung Architektur und Management.